


De Docker à Lambda?: le parcours d'un administrateur AWS vers les applications Python
Jan 21, 2025 am 12:15 AMDes scripts Python à AWS sans serveur?: mon parcours de portefeuille d'investissement
J'ai commencé avec de simples scripts Python pour l'automatisation AWS, évoluant progressivement vers un projet plus complexe. Il y a trois mois, je comprenais à peine les métaclasses ; maintenant, j'ai construit un gestionnaire de portefeuille d'investissement à part entière.
Mon parcours
Des années d'utilisation de Python pour l'automatisation AWS (y compris ce fameux script ? fait tout ?) m'ont amené à créer une application appropriée. En tirant parti de mes anciens scripts, de Stack Overflow et de l'assistance de Claude en matière d'IA, j'ai enfin compris les principes du développement logiciel.
Capture d'écran de l'application (données de départ, pas investissements réels).
Fatigué des mises à jour manuelles des feuilles de calcul Excel pour mes portefeuilles d'investissement, j'ai automatisé le processus. Cette application Python gère les portefeuilles, suit les transactions, traite les dividendes et met même à jour automatiquement les prix. Au départ, il fonctionnait à merveille dans Docker sur mon serveur domestique (backend Flask, frontend React, base de données SQLite).
L'énigme ? Le passe-temps devient un travail ?
L'exécuter sur mon serveur domestique me semblait inefficace. En tant que professionnel AWS, gérer des conteneurs sur mon matériel semblait contre-intuitif. La solution semblait évidente : ECS. J'avais déjà le docker-compose
fichier :
<code>services: backend: build: ./backend container_name: investment-portfolio-backend environment: - DB_DIR=/data/db - LOG_DIR=/data/logs - DOMAIN=${DOMAIN:-localhost} volumes: - /path/to/your/data:/data networks: - app-network frontend: build: context: ./frontend args: - DOMAIN=${DOMAIN:-localhost} - USE_HTTPS=${USE_HTTPS:-false} container_name: investment-portfolio-frontend environment: - DOMAIN=${DOMAIN:-localhost} - USE_HTTPS=${USE_HTTPS:-false} ports: - "80:80" depends_on: - backend networks: - app-network</code>
Cependant, le point de vue d'un architecte AWS (et le calculateur de prix) a suggéré une approche sans serveur?:
- Mises à jour quotidiennes des prix et accès peu fréquents suggérés d'éviter les conteneurs 24h/24 et 7j/7.
- Les fichiers frontaux statiques étaient idéaux pour l'hébergement de sites Web S3.
- API Gateway et Lambda géreraient les appels API.
- Aurora Serverless convenait aux données relationnelles.
- DynamoDB pourrait stocker l'historique des prix (même si je n'ai pas atteint ce stade).
Cela m'a conduit dans le terrier du lapin sans serveur. J'avais déjà une expérience sans serveur?: un projet de suivi de la température avec ma femme, utilisant des données KNMI et générant un tableau à code couleur pour un projet d'artisanat.
<code>| Date | Min.Temp | Min.Kleur | Max.Temp | Max.Kleur | ---------------------------------------------------------------- | 2023-03-01 | -4.1°C | darkblue | 7.1°C | lightblue | | 2023-03-02 | 1.3°C | blue | 6.8°C | lightblue | ...</code>
Ce projet s'est exécuté localement ou via Lambda/API Gateway, en prenant des paramètres de date. La transition vers une application Flask complète avec SQLAlchemy, des taches en arrière-plan et des relations complexes s'est avérée un défi.
L'attrait sans serveur
Mon application conteneurisée a bien fonctionné, mais l'attrait des services sans serveur était fort. Le potentiel de mise à l’échelle automatique et l’élimination de la gestion des conteneurs étaient tentants.
J'ai donc réorganisé mon application pour un environnement sans serveur. Le projet initial a duré deux mois ; ce serait un jeu d'enfant... du moins c'est ce que je pensais.
La décision relative à la base de données
Les limitations de SQLite avec Lambda m'ont amené à envisager PostgreSQL Aurora Serverless, en maintenant la compatibilité avec mes connaissances SQLAlchemy. J'ai créé un double gestionnaire?:
<code>services: backend: build: ./backend container_name: investment-portfolio-backend environment: - DB_DIR=/data/db - LOG_DIR=/data/logs - DOMAIN=${DOMAIN:-localhost} volumes: - /path/to/your/data:/data networks: - app-network frontend: build: context: ./frontend args: - DOMAIN=${DOMAIN:-localhost} - USE_HTTPS=${USE_HTTPS:-false} container_name: investment-portfolio-frontend environment: - DOMAIN=${DOMAIN:-localhost} - USE_HTTPS=${USE_HTTPS:-false} ports: - "80:80" depends_on: - backend networks: - app-network</code>
La courbe d'apprentissage Lambda
La conversion de mon application Flask en fonctions Lambda a été plus complexe que prévu. Ma première tentative a été maladroite?:
<code>| Date | Min.Temp | Min.Kleur | Max.Temp | Max.Kleur | ---------------------------------------------------------------- | 2023-03-01 | -4.1°C | darkblue | 7.1°C | lightblue | | 2023-03-02 | 1.3°C | blue | 6.8°C | lightblue | ...</code>
Pour améliorer la maintenabilité, j'ai créé un décorateur?:
<code>@contextmanager def db_session(): # ... (code for environment-aware database session management) ...</code>
Cette structure de fonction Lambda améliorée?:
<code># ... (initial, inefficient Lambda handler code) ...</code>
Cependant, cela a rompu les routes Flask originales. Un nouveau décorateur permet une double fonctionnalité?:
<code>def lambda_response(func): # ... (decorator for cleaner Lambda responses) ...</code>
Les fonctions de support ont assuré des réponses cohérentes?:
<code>@lambda_response def get_portfolios(event, context): # ... (simplified Lambda function) ...</code>
Cela a permis d'utiliser les mêmes routes pour Flask et Lambda?:
<code>def dual_handler(route_path, methods=None): # ... (decorator for both Flask routes and Lambda handlers) ...</code>
Simplicité du front-end
Le frontend était simple. L'hébergement de sites Web statiques S3 et CloudFront ont permis un déploiement facile. Un simple script a téléchargé le frontend sur S3 et invalidé le cache CloudFront?:
<code>def create_lambda_response(flask_response): # ... (function to convert Flask response to Lambda response format) ... def create_flask_request(event): # ... (function to convert Lambda event to Flask request) ...</code>
Le résultat
Après des semaines de travail, mon application était sans serveur. Même si je ne le garderai pas en ligne pour des raisons de sécurité, j'ai appris de précieuses le?ons?:
- Les capacités de Python s'étendent au-delà des scripts.
- L'offre gratuite AWS est inestimable pour le développement.
- Les CloudWatch Logs sont essentiels pour le débogage.
- La ??bonne?? méthode n'est pas toujours la méthode AWS.
Est-ce que je répéterais cela?? Probablement pas. Mais le voyage a été enrichissant, m'apprenant Python et le développement dual-stack. Mon gestionnaire de portefeuille d'investissement fonctionne désormais en toute sécurité sur mon réseau privé.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La clé pour gérer l'authentification de l'API est de comprendre et d'utiliser correctement la méthode d'authentification. 1. Apikey est la méthode d'authentification la plus simple, généralement placée dans l'en-tête de demande ou les paramètres d'URL; 2. BasicAuth utilise le nom d'utilisateur et le mot de passe pour la transmission de codage Base64, qui convient aux systèmes internes; 3. OAuth2 doit d'abord obtenir le jeton via client_id et client_secret, puis apporter le Bearertoken dans l'en-tête de demande; 4. Afin de gérer l'expiration des jetons, la classe de gestion des jetons peut être encapsulée et rafra?chie automatiquement le jeton; En bref, la sélection de la méthode appropriée en fonction du document et le stockage en toute sécurité des informations clés sont la clé.

Assert est un outil d'affirmation utilisé dans Python pour le débogage et lance une affirmation d'établissement lorsque la condition n'est pas remplie. Sa syntaxe est affirmer la condition plus les informations d'erreur facultatives, qui conviennent à la vérification de la logique interne telle que la vérification des paramètres, la confirmation d'état, etc., mais ne peuvent pas être utilisées pour la sécurité ou la vérification des entrées des utilisateurs, et doit être utilisée en conjonction avec des informations d'invite claires. Il n'est disponible que pour le débogage auxiliaire au stade de développement plut?t que pour remplacer la manipulation des exceptions.

TypeHintsInpythonsolvetheproblebandofambigu?té et opposant à un montant de type de type parallèlement au développement de l'aménagement en fonction des types de type.

Une méthode courante pour parcourir deux listes simultanément dans Python consiste à utiliser la fonction zip (), qui appariera plusieurs listes dans l'ordre et sera la plus courte; Si la longueur de liste est incohérente, vous pouvez utiliser itertools.zip_langest () pour être le plus long et remplir les valeurs manquantes; Combiné avec enumerate (), vous pouvez obtenir l'index en même temps. 1.zip () est concis et pratique, adapté à l'itération des données appariées; 2.zip_langest () peut remplir la valeur par défaut lorsqu'il s'agit de longueurs incohérentes; 3. L'énumération (zip ()) peut obtenir des indices pendant la traversée, en répondant aux besoins d'une variété de scénarios complexes.

Inpython, itérateurslawjectsThatallowloopingthroughCollectionsbyImpleting __iter __ () et__Next __ (). 1) iteratorsworkVeatheitorat

Pour créer des API modernes et efficaces à l'aide de Python, FastAPI est recommandé; Il est basé sur des invites de type Python standard et peut générer automatiquement des documents, avec d'excellentes performances. Après avoir installé FastAPI et ASGI Server Uvicorn, vous pouvez écrire du code d'interface. En définissant les itinéraires, en écrivant des fonctions de traitement et en renvoyant des données, les API peuvent être rapidement construites. Fastapi prend en charge une variété de méthodes HTTP et fournit des systèmes de documentation SwaggerUI et Redoc générés automatiquement. Les paramètres d'URL peuvent être capturés via la définition du chemin, tandis que les paramètres de requête peuvent être implémentés en définissant des valeurs par défaut pour les paramètres de fonction. L'utilisation rationnelle des modèles pydantiques peut aider à améliorer l'efficacité du développement et la précision.

Un environnement virtuel peut isoler les dépendances de différents projets. Créé à l'aide du propre module VENV de Python, la commande est Python-Mvenvenv; Méthode d'activation: Windows utilise Env \ Scripts \ Activate, MacOS / Linux utilise SourceEnv / Bin / Activate; Le package d'installation utilise pipinstall, utilisez PipFreeze> exigences.txt pour générer des fichiers d'exigences et utilisez pipinstall-rrequiments.txt pour restaurer l'environnement; Les précautions incluent ne pas se soumettre au GIT, réactiver chaque fois que le nouveau terminal est ouvert, et l'identification et la commutation automatique peuvent être utilisées par IDE.

Pour tester l'API, vous devez utiliser la bibliothèque des demandes de Python. Les étapes consistent à installer la bibliothèque, à envoyer des demandes, à vérifier les réponses, à définir des délais d'attente et à réessayer. Tout d'abord, installez la bibliothèque via PiPinstallRequests; Utilisez ensuite les demandes.get () ou les demandes.Post () et d'autres méthodes pour envoyer des demandes GET ou POST; Vérifiez ensuite la réponse.status_code et la réponse.json () pour vous assurer que le résultat de retour est en conformité avec les attentes; Enfin, ajoutez des paramètres de délai d'expiration pour définir l'heure du délai d'expiration et combinez la bibliothèque de réessayer pour obtenir une nouvelle tentative automatique pour améliorer la stabilité.
