Vous voulez passer l’examen de spécialité en analyse de données certifiée AWS en toute confiance, et c’est ce que ce cours vous propose.
L’examen de spécialité AWS Certified Data Analytics est l’un des examens de certification les plus difficiles que vous pouvez passer sur Amazon. La réussite de cet examen indique clairement aux employeurs que votre connaissance des grands systèmes de données est vaste et approfondie. Mais, même les technologues expérimentés doivent se préparer intensivement à cet examen. Ce cours vous prépare à la réussite, en couvrant toutes les grandes technologies de données de l’examen et leur interaction.
Tout au long du cours, vous aurez de nombreuses occasions de renforcer votre apprentissage grâce à des laboratoires personnalisés. Nous vous donnerons également des conseils et des stratégies utiles pour passer l’examen en cours de route.
DURÉE D’ASSIMILATION DE LA MATIÈRE
Nos formations demandent un engagement et de l’action de part de l’apprenant.
Il est acteur de son apprentissage.
Chaque personne est unique.
Elle a son propre parcours, sa propre expérience ainsi que sa motivation.
Tous ces facteurs et d’autres influencent énormément l’assimilation de nouvelles informations.
Le temps moyen estimé de cette formation est de : 21 Heures
PUBLIC
Architectes de solutions, scientifiques et analystes de données souhaitant en savoir plus sur les services et les types d’architectures soutenant les solutions de Big Data sur AWS.
OBJECTIFS DE LA FORMATION
Le monde de l’analyse des données sur les AWS comprend un éventail étourdissant de technologies et de services. Voici un échantillon des sujets que nous traitons en profondeur :
- Streaming de données massives avec AWS Kinesis
- Mise en file d’attente des messages avec le Simple Queue Service (SQS)
- La lutte contre l’explosion des données de l’Internet des objets (IOT)
- Passer des petites aux grandes données avec le service de migration des bases de données (DMS) de l’AWS
- Stockage de données massifs avec le service de stockage simple (S3)
- Optimiser les requêtes transactionnelles avec DynamoDB
- Lier vos grands systèmes de données avec AWS Lambda
- Rendre les données non structurées interrogeables avec AWS
- Traitement des données à une échelle illimitée avec Elastic MapReduce, y compris Apache Spark, Hive, HBase, Presto, Zeppelin, Splunk et Flume
- Appliquer les réseaux neuronaux à grande échelle avec Deep Learning, MXNet et Tensorflow
- Application d’algorithmes avancés d’apprentissage machine à l’échelle avec Amazon SageMaker
- Analyser les données de streaming en temps réel avec Kinesis Analytics
- Recherche et analyse de données à l’échelle du pétaoctet avec Amazon Elasticsearch Service
- Interroger les données S3 avec Amazon Athena
- Hébergement d’entrepôts de données à grande échelle avec Redshift et Redshift Spectrum
PROGRAMME DÉTAILLÉ
Chapitre 01: Introduction au Cloud Computing
- Qu’est-ce que le cloud computing?
- Plateforme cloud Amazon Web Services
- Économie du cloud AWS
- Principes de conception de l’architecture cloud AWS
- Bases de données
Chapitre 02: Collection
- Concepts de base de Kinesis Stream
- Kinesis Stream Emitting Data vers les services AWS
- Kinesis Firehose
- Amazon SQS
- AWS IOT
- Pipeline de données AWS
- Carte mentale
Chapitre 03: Stockage
- Amazon Glacier
- Présentation de DynamoDB
- Partitions DynamoDB
- DynamoDB GSI / LSI
- DynamoDB Flux et réplication
- Analyse approfondie des performances DynamoDB
- Mind Map
Chapitre 04: Traitement
- Amazon Elastic MapReduce (EMR)
- Apache Hadoop
- Architecture de l’EMR
- Opérations EMR
- Utilisation de Hue avec EMR
- Hive on EMR
- HBase avec EMR
- Presto avec EMR
- Spark avec EMR
- Stockage et compression de fichiers EMR
- Laboratoire 4.1: EMR
- AWS Lambda dans l’écosystème AWS BigData
- HCatalogue
- Lab 4.2: HCatalog
- Carte mentale
Chapitre 05: Analyse
- RedShift
- RedShift dans l’écosystème AWS
- Lab 5-01: Génération de l’ensemble de données
- Lab 5-02: RedShift
- Apprentissage automatique
- Lab 5-03: Apprentissage automatique
- Elasticsearch
- RStudio
- Laboratoire 5-04: RStudio
- Athéna
- Lab 5-05: Athéna
- Carte mentale
Chapitre 06: Visualisation
- Présentation d’Amazon QuickSight
- Visualisation QuickSight
- Visualisation Big Data
- MicroStrategy
- Carte mentale
Chapitre 07: Sécurité
- Sécurité du EMR
- Sécurité RedShift
PRÉ-REQUIS
- Avoir suivi la formation AWS-FND « Amazon Web Services – Notions techniques de base » ou posséder un niveau d’expérience équivalent.
- Connaître de manière basique les technologies de Big Data, notamment Apache Hadoop, MapReduce, HDFS et les requêtes SQL / NoSQL.
- Savoir utiliser les principaux services d’AWS et l’implémentation de Cloud public, comprendre les concepts d’entrepôt de données, de systèmes de base de données relationnelle et de conception de base de données
Certifications
L’examen AWS Certified Big Data – Specialty valide les compétences et l’expérience dans la réalisation d’analyses Big Data complexes à l’aide des technologies AWS.