Présentation de l’atelier
Example Corp. crée des campagnes de marketing pour les petites et moyennes entreprises. Ils vous ont récemment engagé pour travailler avec les équipes d’ingénieurs afin de mettre au point une preuve de concept pour leur entreprise. Jusqu’à présent, ils hébergeaient leurs clients dans un centre de données sur site. Ils souhaitent maintenant transférer leurs opérations dans le cloud pour économiser de l’argent et transformer leur entreprise en adoptant une stratégie orientée vers le cloud. Certains membres de leur équipe ont une expérience du cloud et ont recommandé AWS Cloud Services pour construire leur solution.
En outre, Example Corp. a décidé de remanier son portail web. Les clients utilisent le portail pour accéder à leurs comptes, créer des stratégies de vente et analyser les données de leurs campagnes marketing. Ils aimeraient disposer d’un prototype fonctionnel d’ici deux semaines. Vous devez concevoir une architecture capable de prendre en charge cette application. Votre solution doit être rapide, durable et plus rentable que leur infrastructure existante sur site. Elle doit aussi pouvoir être mise à l’échelle.
Cet atelier montre un procédé qui permet de mettre en service un environnement en auto scaling pour une pile complète d’application web en utilisant des techniques d’automatisation pour orchestrer des ressources AWS. Les équipes du service informatique (IT) peuvent adapter cette solution pour mettre en service leur infrastructure rapidement, et fournir en toute sécurité des applications conformes à l’évolution des besoins liés à leur activité.
Objectifs
À la fin de cet atelier, vous saurez comment :
- Déployer un réseau virtuel réparti sur plusieurs zones de disponibilité dans une région à l’aide d’un modèle CloudFormation fourni.
- Élaborer une base de données relationnelle hautement disponible et entièrement gérée dans ces zones de disponibilité, en utilisant Amazon Relational Database Service (Amazon RDS).
- Créer une couche de bases de données en cache avec Amazon ElastiCache.
- Utiliser Amazon Elastic File System (Amazon EFS) pour fournir une couche de stockage partagée à travers plusieurs zones de disponibilité pour le niveau d’application, alimenté par Network File System (NFS).
- Créer un groupe de serveurs web qui s’adapteront automatiquement aux variations de charge pour compléter le niveau de votre application.
Durée
Cet atelier dure environ 90 minutes.
Signification des icônes
De nombreuses icônes sont utilisées dans cet atelier pour attirer l’attention sur différents types d’instructions et de remarques. La liste suivante explique la signification de chaque icône :
- Sortie attendue : un exemple de sortie que vous pouvez utiliser pour vérifier la sortie d’une commande ou d’un fichier modifié.
- Remarque : un indice, une directive ou un conseil important.
- En savoir plus : un emplacement où trouver davantage d’informations.
- AVERTISSEMENT : une action qui est irréversible et susceptible d’avoir une incidence sur l’échec d’une commande ou d’un processus (y compris les avertissements concernant les configurations ne pouvant pas être modifiées après leur mise en place).
Services AWS non utilisés dans cet atelier
Les services AWS qui ne sont pas utilisés sont désactivés dans l’environnement de cet atelier. En outre, les fonctionnalités des services utilisés sont limitées aux stricts besoins de l’atelier. Des erreurs peuvent survenir si vous effectuez des actions ou tentez d’accéder à des services autres que ceux prévus dans le guide de cet atelier.
Environnement de l’atelier
Le diagramme suivant illustre l’architecture de base de l’environnement de cet atelier :
Description de l’image : ce diagramme illustre le flux de données d’un utilisateur externe vers une passerelle Internet, via une application Load Balancer dans un sous-réseau public, vers un serveur d’application dans un sous-réseau privé, et vers un serveur de bases de données dans un sous-réseau privé séparé.
La liste suivante détaille les principales ressources du diagramme :
- une seule région AWS avec un VPC et deux zones de disponibilité.
- Chaque zone de disponibilité comprend un sous-réseau public, un sous-réseau d’application et un sous-réseau de bases de données.
- Les passerelles NAT sont situées dans le sous-réseau public de chaque zone de disponibilité.
- Une application Load Balancer et un groupe Auto Scaling possédant des serveurs d’applications dans les sous-réseaux d’application des deux zones de disponibilité.
- Chaque serveur d’applications communique avec une cible de montage EFS (Elastic File System) dans son propre sous-réseau pour atteindre le système de fichiers Amazon EFS, qui ne se trouve pas dans la zone de disponibilité.
- Tous les serveurs d’applications communiquent avec une instance DB principale Aurora dans l’un des sous-réseaux de base de données. L’autre sous-réseau de base de données contient le réplica Aurora.
- Une ressource Amazon ElastiCache dans le sous-réseau de base de données qui agit comme une couche de mise en cache.