Commencer à apprendre AWS peut être une tâche difficile. Ce blog vous aidera à vous familiariser avec certains termes clés d’AWS et vous aidera à progresser dans votre apprentissage d’AWS.

AWS est le fournisseur de cloud le plus important et le plus populaire au monde. À l’heure actuelle, le nuage AWS s’étend sur 105 zones de disponibilité réparties dans 33 régions géographiques à travers le monde, et il est prévu d’ajouter 12 zones de disponibilité supplémentaires dans 4 régions. Des caractéristiques telles que la haute disponibilité, la grande évolutivité, le nombre de régions et les modèles de tarification “on-the-go” font d’AWS le premier choix de votre fournisseur de cloud.

La popularité croissante d’AWS s’accompagne d’une demande de plus en plus forte de développeurs et d’architectes AWS qualifiés. C’est le meilleur moment pour mettre les mains dans le cambouis des technologies comme AWS afin de faire progresser votre carrière. Mais il n’est pas facile de se familiariser avec une technologie inconnue. AWS compte plus de 200 services et la confusion peut vite s’installer.

Si vous êtes un débutant en AWS ou un professionnel de la technologie qui souhaite comprendre la terminologie AWS à un niveau élevé, cet article est fait pour vous. Dans cet article, nous allons examiner quelques terminologies clés d’AWS pour vous aider à commencer votre voyage dans le nuage AWS.

Terminologies clés d’AWS : Services AWS

Voici une liste des services AWS les plus couramment utilisés :

Amazon API Gateway : Amazon API Gateway est un service AWS entièrement géré qui facilite la création, la publication, la maintenance, la surveillance et la sécurisation des API à toute échelle. L’un des cas d’utilisation les plus courants consiste à exposer les services AWS à des applications non AWS via une API.

Amazon Aurora : AWS Aurora est un service de base de données relationnelle MySQL et PostgreSQL entièrement géré par AWS. Il est spécialement conçu et optimisé pour le nuage AWS afin d’utiliser pleinement les avantages du stockage en nuage.

Lire aussi: Les meilleures plateformes d’hébergement MySQL gérées pour votre application

Amazon Aurora

Amazon CloudFront : AWS CloudFront est un réseau de diffusion de contenu d’AWS. Sa fonction principale est de réduire la latence de vos applications en mettant en cache les données statiques dans plus de 300 emplacements (appelés Edge Locations) dans le monde entier.

Amazon CloudWatch : AWS Cloudwatch est un service intégré de surveillance et d’observation des ressources AWS. Il fournit des données et des informations exploitables que nous pouvons utiliser pour surveiller les applications et répondre à certains scénarios.

Amazon DynamoDB : AWS DynamoDB est une base de données NoSQL sans serveur qui vous permet d’accéder à vos données en quelques millisecondes.

Lisez aussi: Ressources pour apprendre SQL et NoSQL

Amazon EC2 : AWS EC2 est le service le plus utilisé d’AWS. Il fournit des serveurs virtuels sécurisés et redimensionnables (appelés instances EC2) pour tous les types de besoins.

Amazon EC2 Auto Scaling : Il s’agit d’un service conçu pour lancer ou fermer automatiquement des instances EC2 en fonction des politiques et des contrôles de santé définis par les utilisateurs.

Amazon Elastic Block Store : AWS Elastic Block Store, ou EBS, est un service de stockage en bloc d’AWS. Nous pouvons utiliser EBS pour provisionner des périphériques de stockage par blocs appelés volumes EBS.

Amazon Elastic Container Registry : AWS Elastic Container Registry, ou ECR, est un registre de conteneurs qui vous permet de stocker, de maintenir et de déployer des images de conteneurs Docker.

Amazon Elastic Container Service : AWS Elastic Container Service, également appelé ECS, est un système de gestion de conteneurs hautement évolutif et rapide développé et fourni par AWS.

Amazon Elastic File System : AWS Elastic File System ou EFS est un service qui nous permet de configurer et de créer des systèmes de fichiers. Ces systèmes de fichiers sont ensuite accessibles via des instances EC2et des serveurs sur site.

Amazon Elastic Kubernetes Service : AWS EKS est un service géré qui simplifie l’exécution de Kubernetes sur AWS sans avoir à configurer ou à maintenir vos propres clusters Kubernetes.

Amazon IAM : AWS IAM est un service qui permet de gérer les utilisateurs et leurs autorisations d’accès au sein d’un compte AWS.

AWS Key Management Service : AWS Key Management Service, ou KMS, est une solution simple d’AWS pour créer et gérer des clés de chiffrement.

Amazon Lightsail: AWS Lightsail permet aux développeurs de provisionner et de maintenir rapidement des serveurs web. Il peut être utilisé pour de petits cas d’utilisation qui nécessitent des changements de configuration minimes. Lightsail propose des packages groupés – comme un WordPress Lightsail pour vous permettre de déployer rapidement des applications WordPress.

Amazon Relational Database Service : AWS Relational Database Service, ou RDS, est un service qui permet de configurer, d’exploiter et de mettre à l’échelle des bases de données relationnelles dans le nuage AWS. RDS prend en charge les bases de données suivantes :

  • PostgreSQL
  • Oracle
  • MySQL
  • MSSQL
  • MariaDB

Amazon Route 53: AWS Route 53 nous permet de créer un nouveau service DNS pour nos noms de domaine. C’est également un bureau d’enregistrement de domaines, vous pouvez donc acheter de nouveaux noms de domaines ou transférer des noms de domaines que vous possédez vers AWS à l’aide de la console Route 53.

Amazon S3: AWS S3 est le service de stockage le plus utilisé d’AWS. Il s’agit d’un service hautement durable et évolutif qui vous permet de stocker vos fichiers sous forme d’objets dans des conteneurs appelés ” buckets S3″. Vous pouvez récupérer rapidement ces fichiers à tout moment via la console ou l’internet. La capacité de stockage de S3 est pratiquement infinie et vous ne payez que pour l’espace de stockage que vous utilisez.

Lisez aussi: Commandes AWS S3 avec exemples pour gérer les bacs et les données

Amazon S3 Glacier : AWS S3 Glacier est un service de stockage durable et peu coûteux pour les sauvegardes et les archives. Glacier est spécialement conçu pour les données rarement consultées, pour lesquelles un délai de récupération de plusieurs heures est acceptable.

Amazon Simple Email Service : AWS SES est une solution de messagerie facile à utiliser et rentable pour les applications.

Amazon Simple Notification Service : AWS SNS est utilisé pour envoyer et recevoir instantanément des notifications dans le nuage AWS. SNS est intégré à de nombreux services AWS et est largement utilisé pour permettre à deux services différents de communiquer entre eux.

Amazon Simple Queue Service : AWS SQS est un service qui nous permet d’héberger des files d’attente dans le nuage pour stocker des messages. SQS peut être intégré à d’autres services AWS qui poussent et récupèrent des messages à partir des files d’attente SQS.

Amazon Virtual Private Cloud : AWS VPC est utilisé pour provisionner des réseaux cloud logiquement isolés. AWS VPC vous donne un contrôle total sur les capacités de routage, la sécurité et les configurations de réseau au sein de ce nuage.

AWS CloudFormation: CloudFormation est un service d’infrastructure en tant que code d ‘AWS qui nous permet de créer, de modifier et de supprimer des ressources AWS à l’aide d’un code YAML ou JSON.

AWS Cloud Development Kit (CDK) : AWS CDK est un cadre de développement logiciel open-source permettant de définir et de provisionner une infrastructure cloud à l’aide de code dans des langages de programmation familiers tels que C , JAVA, Python, etc. AWS CDK convertit en interne votre code en modèles CloudFormation et utilise ensuite le service AWS CloudFormation pour provisionner votre infrastructure cloud.

Lisez aussi: Comprendre les outils IaC : AWS CDK vs. Terraform

AWS CodePipeline: CodePipeline est un service de livraison continue pour des déploiements d’applications rapides et fiables.

AWSCodeBuild: AWS CodeBuild est un service d’intégration continue sans serveur d’AWS. Il nous permet d’extraire du code des référentiels, d’exécuter des tests et d’autres tâches de construction, et de créer des paquets prêts à être déployés.

AWS CodeDeploy : AWS CodeDeploy est un outil de déploiement automatique d’AWS qui utilise des packages prêts à être déployés pour déployer des applications sur des serveurs sur AWS ou des centres de données sur site.

AWS CodeCommit : AWS CodeCommit est un service qui vous permet d’héberger des dépôts Git privés comme BitBucket ou GitHub.

AWSCloudTrail: AWS CloudTrail enregistre tous les appels d’API dans votre compte. Ainsi, si vous souhaitez connaître l’identité des utilisateurs qui apportent des modifications à votre compte, vous pouvez le faire dans la console CloudTrail. Outre l’identité de l’utilisateur, Cloudtrail enregistre également l’horodatage de l’appel API, l’IP source et la réponse renvoyée par AWS, le cas échéant.

AWS Elastic Beanstalk: Service web permettant de déployer et de gérer rapidement des applications dans le cloud AWS sans avoir à provisionner et à maintenir l’infrastructure cloud qui exécute ces applications.

AWS Elastic Beanstalk

AWS Lambda : AWS Lambda est un service de calcul sans serveur d’AWS qui vous permet d’exécuter votre code sans provisionner ni entretenir de serveurs. C’est un service AWS très utilisé qui peut être intégré à de nombreux services AWS.

AWS Secrets Manager: AWS SecretsManager est un service AWS utilisé pour stocker, faire pivoter et chiffrer les informations d’identification pour les services AWS. Par exemple, vous pouvez stocker et crypter les noms d’utilisateur et les mots de passe pour l’accès aux bases de données.

AWS Snowball : AWS Snowball est un service de migration de données à l’échelle du pétaoctet proposé par AWS. Vous pouvez utiliser le service AWS Snowball pour commander un disque dur de la taille d’une mallette qui peut être utilisé pour transférer des téraoctets de données vers AWS.

AWS Snowball

Maintenant que vous avez découvert certains des termes les plus importants d’AWS en termes de services, passons à des termes plus généraux.

Terminologies clés d’AWS : Généralités

Voici une liste de quelques termes clés généraux d’AWS que vous devriez connaître :

Liste de contrôle d’accès : La liste de contrôle d’accès, également appelée ACL, est un document qui définit l’accès aux données d’un seau S3. Chaque panier possède une ACL qui définit les actions qu’un utilisateur peut effectuer sur les données contenues dans le panier. Par exemple, vous utilisez l’ACL pour limiter l’accès d’un utilisateur à tous les fichiers ‘.json’ et ne l’autoriser à accéder qu’aux autres fichiers d’un panier.

Alarme: L’équipe alarme dans AWS est généralement utilisée pour se référer aux alarmes AWS CloudWatch. Une alarme CloudWatch est une entité qui surveille une certaine métrique et se déclenche lorsque cette métrique dépasse le seuil que vous avez fixé. Lorsqu’une alarme est déclenchée, elle envoie un message à SNS ou peut effectuer une action définie par vous.

Politique : Le terme “politique” dans AWS est utilisé pour désigner une politique IAM ou une politique AWS EC2 AutoScaling.

  • Politique IAM : Une politique IAM est un document de permission qui peut être appliqué à un utilisateur, un rôle ou un groupe IAM. Elle contient des permissions d’autoriser ou de refuser qui sont appliquées aux ressources (utilisateur IAM, rôle ou groupe) auxquelles cette politique est attachée.
  • Politique de mise à l’échelle automatique EC2 : Une politique AutoScaling est attachée à un groupe AutoScaling (ASG) et définit des déclencheurs qui aident AWS à décider quand lancer une nouvelle instance dans l’ASG ou mettre fin à une instance de l’ASG. Un exemple courant est que vous pouvez avoir une politique de mise à l’échelle pour ajouter une ou plusieurs instances EC2 lorsque les connexions réseau à vos applications atteignent un certain seuil.

Politique gérée par le client : Les politiques IAM gérées par les utilisateurs d’AWS sont connues sous le nom de politiques gérées par les clients. Ces politiques sont créées et maintenues par les utilisateurs.

Politique gérée par AWS : Les politiques IAM créées et gérées par AWS sont appelées politiques gérées par AWS. Tous les comptes disposent de règles par défaut gérées par AWS, dont l’utilisation est gratuite.

Contrôles de santé : Le bilan de santé est un système permettant de vérifier l’état de votre instance EC2 ou d’une application fonctionnant sur l’instance EC2. Par exemple, vous pouvez créer un contrôle de santé qui appelle toutes les 10 secondes votre application web s’exécutant sur une instance EC2. Si cette demande échoue, votre contrôle de santé échouera. Ce bilan de santé peut ensuite être connecté à une alarme CloudWatch qui déclenche une action pour corriger l’état de l’application.

Emplacements de périphérie : Les emplacements Edge sont des centres de données pour les services AWS qui effectuent certaines actions. Par exemple, CloudFront utilise les emplacements Edge pour mettre en cache vos données statiques et réduire la latence de votre application.

Volume : Dans AWS, le terme volume désigne généralement les volumes EBS, c’est-à-dire les périphériques de stockage en bloc virtuels fournis par le service EBS.

Tableau de bord de l’état des services : Le tableau de bord de l’état des services est une page web qui affiche des informations de dernière minute sur la disponibilité des services AWS. Vous pouvez accéder au tableau de bord de l’état des services et vérifier s’il y a une panne dans les régions AWS.

Amazon Machine Image : Amazon Machine Image ou AMI peut être considéré comme le modèle du périphérique racine d’un ordinateur. Elle contient le système d’exploitation et d’autres logiciels que vous souhaitez installer dans vos instances EC2 dès le provisionnement.

Amazon Resource Name (nom de ressource Amazon) : L’ARN est un moyen standard de désigner une ressource dans AWS. Toutes les ressources AWS ont un ARN unique.

Zone de disponibilité: La zone de disponibilité, parfois appelée AZ, est un centre de données distinct dans une région. Chaque AZ est isolée des défaillances des autres AZ de la région. Par conséquent, la répartition de vos serveurs d’application dans les zones de disponibilité est l’approche recommandée pour les exigences de haute disponibilité.

Groupe de mise à l’échelle automatique: Le groupe de mise à l’échelle automatique, également appelé ASG, est un groupe logique de plusieurs instances EC2 qui partagent des caractéristiques similaires et prennent en charge une application. Comme son nom l’indique, les ASG peuvent augmenter ou diminuer automatiquement leur capacité en fonction des politiques EC2 AutoScaling.

Interface de ligne de commande AWS : AWSCLI est un outil téléchargeable et configurable qui peut être utilisé pour contrôler, approvisionner et maintenir les ressources cloud à l’aide de commandes.

Lisez aussi: Qu’est-ce que AWS CLI et comment l’installer sur Windows, macOS, Docker et Linux ?

Kit dedéveloppement logiciel AWS: Un SDK AWS est un logiciel qui fournit des API pour connecter les applications aux services AWS. Par exemple, vous devez utiliser le SDK AWS SQS pour JAVA pour pouvoir connecter votre application JAVA à une file d’attente SQS.

Dispositif de bloc : Un périphérique de stockage qui prend en charge la lecture et l’écriture de données dans des blocs de taille fixe est appelé périphérique de bloc.

Bucket : Le Bucket est une entité logique (comme les dossiers) dans laquelle nous stockons nos objets (fichiers) lorsque nous utilisons AWS S3. Nous pouvons créer des buckets à l’aide de la console AWS S3.

Propriétaire d’un godet: L’organisation ou la personne qui possède un godet AWS S3 est appelée propriétaire d’un godet. Les seaux sont uniques au niveau mondial ; vous ne pouvez jamais avoir deux seaux portant le même nom, même dans des comptes AWS différents. Ainsi, par exemple, si j’ai un seau nommé my-geekflare-bucket dans mon compte, j’en suis le propriétaire. Vous ne pouvez pas créer un autre godet avec ce même nom sur AWS.

Bloc CIDR: Les blocs CIDR sont des groupes d’adresses IP qui partagent le même préfixe. Par exemple, 10.0.0.0/8 est un bloc CIDR qui comprend toutes les adresses IP allant de 10.0.0.0 à 10.255.255.255.

Livraison continue : Le terme de livraison continue n’est pas spécifique à AWS. Il s’agit d’une pratique de développement logiciel DevOps visant à construire, tester et préparer automatiquement les changements de code pour une version de production.

Intégration continue : L’intégration continue est une pratique de développement logiciel DevOps qui consiste à fusionner régulièrement les modifications de code dans un référentiel central.

Accès croisé: Le processus qui permet aux utilisateurs d’un autre compte AWS d’utiliser les ressources de votre compte. Par exemple, vous pourriez vouloir qu’un utilisateur d’un autre compte accède à certaines données de votre panier S3. Pour ce faire, vous devez accorder à l’utilisateur de l’autre compte un accès croisé à votre compte.

Réplication interrégionale : La réplication interrégionale ou CRR est une fonctionnalité d’AWS S3 qui permet de répliquer de manière asynchrone les modifications apportées à un bac d’une région vers un autre bac d’une région AWS différente. Notez que ce terme peut également être utilisé de manière générale pour spécifier le partage de données vers différentes régions AWS.

Clé maîtresse du client : LesCMK sont les clés de chiffrement gérées par le service de gestion des clés AWS.

Instantané de la base de données : Les snapshots sont des sauvegardes ponctuelles de vos bases de données, généralement stockées dans AWS S3.

Hôte dédié : Un hôte dédié Amazon EC2 est un serveur physique dédié à votre usage. Les hôtes dédiés vous donnent un contrôle total et une visibilité sur la façon dont les instances sont placées sur le serveur de l’hôte dédié.

Instance dédiée : Une instance dédiée est une instance déployée sur un serveur physique qui n’est utilisé que par vous. Lorsque vous utilisez des instances dédiées, vous n’avez aucun contrôle ni aucune visibilité sur le placement des instances. AWS veille à ce que vos instances EC2 dédiées soient physiquement isolées au niveau du matériel de l’hôte.

Décryptage: Il s’agit du processus d’utilisation des clés de cryptage pour rendre intelligibles les données cryptées.

Crypter: Il s’agit de l’utilisation d’algorithmes mathématiques pour rendre vos données inintelligibles afin d’empêcher les utilisateurs non autorisés d’en tirer des informations. Même si une entité malveillante obtient des données cryptées, elle ne peut pas les lire sans les décrypter au préalable.

Groupe IAM : Les groupes IAM sont des groupes logiques d’utilisateurs IAM. Vous pouvez utiliser les groupes IAM pour simplifier le rattachement de politiques à plusieurs utilisateurs. Par exemple, vous pouvez attacher une “politique de développement” à un groupe IAM “développeurs”, et AWS attachera cette politique à tous les utilisateurs IAM de ce groupe

Simulateur de politique IAM : Le simulateur de politique IAM est un outil de IAM qui vous permet de tester et de dépanner les politiques IAM.

Rôle IAM : Un rôle IAM est une entité utilisée pour donner accès aux services AWS. Par exemple, vous pouvez créer une politique avec des autorisations de lecture S3 et l’attacher à un rôle. Ce rôle peut ensuite être assigné à un service AWS comme EC2 ou AWS Lamba pour pouvoir effectuer des opérations de lecture dans S3.

Utilisateur IAM : Les utilisateurs IAM sont des entités qu’une personne suppose pouvoir accéder aux services AWS. Par exemple, si vous souhaitez qu’une autre personne de votre équipe ait accès à votre compte AWS, vous pouvez créer un utilisateur IAM pour cette personne, avec les règles appropriées. Une fois que vous aurez donné le nom d’utilisateur et le mot de passe associés à l’utilisateur IAM à votre coéquipier, il pourra se connecter à AWS en tant qu’utilisateur IAM.

Instance Store : Le magasin d’instance est un stockage sur disque qui est physiquement attaché à l’hôte de l’instance EC2. D’autres services de stockage AWS, comme EBS, sont connectés à EC2 via un réseau. Certains types d’instances EC2 disposent de magasins d’instance pour un accès rapide aux données.

Passerelle Internet: Il s’agit d’un dispositif virtuel qui peut être attaché aux VPC pour donner un accès internet aux ressources créées dans les VPC.

Équilibreur de charge: Il s’agit d’un dispositif/machine virtuelle utilisé pour distribuer les demandes à plusieurs points d’extrémité tels que les bases de données, les instances EC2, les serveurs sur site, etc.

Objet : Les fichiers stockés dans AWS S3 sont appelés objets.

Instanceà la demande: Les instances EC2 qui sont provisionnées à la demande, c’est-à-dire sans engagement à long terme, sont appelées instances à la demande.

Instances réservées : Les instances EC2 provisionnées avec un engagement à long terme sont appelées Instances réservées. L’utilisation d’instances réservées permet de bénéficier d’une forte réduction (jusqu’à 70 %) par rapport aux instances à la demande. Les clients paient pour toute la durée de l’instance (par exemple, un an), quelle que soit l’utilisation qu’ils en font.

Principal : le principal est l’entité visée par les politiques. Par exemple, dans un scénario où vous donnez à un utilisateur IAM la permission d’effectuer des opérations de lecture sur un seau S3, l’utilisateur IAM est le principal. Les mandants peuvent être un utilisateur, un service ou un autre compte AWS.

Région: Une région AWS est un emplacement géographique physique dans le monde où AWS a ses centres de données.

Sous-réseau: Le sous-réseau est une partie logique du bloc CIDR du VPC où nous pouvons lancer nos ressources AWS. Cela nous aide à regrouper les ressources en fonction des besoins en matière de sécurité et de réseau.

Route Table : Une table de routage est un ensemble de tables de routage qui contrôlent le trafic quittant un sous-réseau.

Sous-réseaux publics : Les sous-réseaux publics sont les sous-réseaux qui ont une entrée dans la table de routage de la passerelle Internet. Les ressources des sous-réseaux publics sont accessibles via l’internet. Vous devez déployer vos applications et ressources orientées client dans les sous-réseaux publics.

Sous-réseaux privés. Les sous-réseaux qui n’ont pas de règle de table de routage pour accéder à la passerelle Internet sont appelés sous-réseaux privés. Les ressources des sous-réseaux privés ne peuvent être accédées que par d’autres ressources au sein du VPC. Vous devriez déployer des applications dorsales et des bases de données dans des sous-réseaux privés.

Mise à l’échelle : La mise à l’échelle signifie la diminution de la capacité d’un service. Par exemple, mettre fin à des instances dans un groupe AutoScaling.

Scaleout: La mise à l’échelle signifie l’augmentation de la capacité d’un service : Par exemple, lancer des instances dans un groupe AutoScaling.

Mise à l’échelle verticale : La mise à l’échelle verticale consiste à modifier la taille des instances ou des ressources afin d’effectuer des activités de mise à l’échelle, par exemple en remplaçant une instance de 1 Go de RAM par une instance de 5 Go de RAM.

Mise à l’échelle horizontale : La mise à l’échelle horizontale consiste à modifier le nombre d’instances ou de ressources pour effectuer des activités de mise à l’échelle. Le lancement et l’arrêt d’instances dans un groupe AutoScaling sont des exemples de mise à l’échelle horizontale.

Groupe de sécurité : Un groupe de sécurité est un ensemble logique de règles d’entrée et de sortie permettant au trafic d’entrer et de sortir des ressources AWS. Par exemple, vous pouvez attacher un groupe de sécurité à une instance EC2 et créer une règle entrante pour autoriser les connexions HTTP sur le port 80. Cette règle permettra à cette instance de servir le trafic web. Les groupes de sécurité sont fréquemment utilisés dans AWS.

Sticky session : La session collante est une fonctionnalité des répartiteurs de charge qui permet d’acheminer toutes les demandes d’une session d’utilisateur vers une instance EC2 spécifique.

Cryptage côté serveur: L’exécution de tâches de chiffrement sur AWS et non sur vos serveurs sur site est appelée chiffrement côté serveur (Server Side Encryption ou SSE). Le terme SSE est généralement utilisé pour désigner un mode de chiffrement de S3 dans lequel nous utilisons des clés d’AWS KMS ou fournissons des clés du système local pour chiffrer les fichiers sur S3.

Chiffrement côté client : Le cryptage des données sur les serveurs sur site avant de les envoyer à AWS est appelé cryptage côté client.

Tags : La plupart des services AWS possèdent des paires clé-valeur de métadonnées appelées balises.

Transport Layer Security: TLS est un protocole cryptographique qui sécurise les communications sur Internet.

VPC endpoint : Le point de terminaison VPC est une fonction que vous pouvez utiliser pour créer une connexion privée entre votre VPC et un autre service AWS sans avoir besoin d’un accès à Internet. Par exemple : Les buckets S3 ne sont pas créés dans le VPC, donc les instances dans un VPC AWS doivent accéder aux buckets S3 de la même manière que nous accédons aux buckets à partir de nos ordinateurs locaux sur l’internet. La fonction de point d’extrémité VPC nous permet de créer une connexion privée pour les instances dans le VPC afin d’accéder aux seaux S3.

Conclusion

Voilà pour les terminologies clés d’AWS. J’espère que cela vous aidera à développer une compréhension de base des services AWS et de certaines fonctionnalités clés.