Dernière mise à jour le 17/04/2024

Développer des applications pour Spark avec Hadoop Cloudera avec Certification

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : NoSQL et Hadoop
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

Identifier et utiliser les outils appropriés à chaque situation dans un écosystème hadoop Utiliser Apache Spark et l'intégrer dans l'écosystème hadoop Utiliser Sqoop, Kafka, Flume, Hive et Impala

Public visé

Développeur Analyste

Pré-requis

Être à l'aise pour programmer dans l'un de ces langages : Scala et/ou Python Connaissance de base des lignes de commande Linux requise La connaissance de base du SQL est un plus Aucune expérience préalable avec hadoop n'est nécessaire

Programme

1.Introduction à Hadoop et à son écosystème 1.1.Introduction générale à hadoop 1.2.Traitement de données 1.3.Introduction aux exercices pratiques 2.HDFS : le système de fichiers Hadoop 2.1.Les composants d'un cluster hadoop 2.2.L'architecture d'HDFS 2.3.Utiliser HDFS 3.Le traitement distribué sur un cluster Hadoop 3.1.L'architecture de YARN 3.2.Travailler avec YARN 4.Les bases de Spark 4.1.Introduction à Spark 4.2.Démarrer et utiliser la console Spark 4.3.Introduction aux Datasets et DataFrames Spark 4.4.Les opérations sur les DataFrames 5.Manipulation des dataframes et des schemas 5.1.Créer des DataFrames depuis diverses sources de données 5.2.Sauvegarder des DataFrames 5.3.Les schémas des DataFrames 5.4.Exécution gloutonne et paresseuse de Spark 6.Analyser des données avec des requêtes sur dataframes 6.1.Requêter des DataFrames avec des expressions sur les colonnes nommées 6.2.Les requêtes de groupement et d'aggrégation 6.3.Les jointures 7.Les RDD - Structure fondamentale de Spark 7.1.Introduction aux RDD 7.2.Les sources de données de RDD 7.3.Créer et sauvegarder des RDD 7.4.Les opérations sur les RDD 8.Transformer les données avec des RDD 8.1.Écrire et passer des fonctions de transformation 8.2.Fonctionnement des transformations de Spark 8.3.Conversion entre RDD et DataFrames 9.Agrégation de données avec les RDD de paires 9.1.Les RDD clé-valeur 9.2.Map-Reduce : principe et usage dans Spark 9.3.Autres opérations sur les RDD de paires 10.Requêtage de tables et de vues avec Spark SQL 10.1.Requêter des tables en Spark en utilisant SQL 10.2.Requêter des fichiers et des vues 10.3.L'API catalogue de Spark 11.Travailler avec des Datasets Spark en Scala 11.1.Les différences entre Datasets et DataFrames 11.2.Créer des Datasets 11.3.Charger et sauvegarder des Datasets 11.4.Les opérations sur les Datasets 12.Écrire, configurer et lancer des applications Spark 12.1.Écrire une application Spark 12.2.Compiler et lancer une application 12.3.Le mode de déploiement d'une application 12.4.L'interface utilisateur web des applications Spark 12.5.Configurer les propriétés d'une application 13.Le traitement distribué avec Spark 13.1.Rappels sur le fonctionnement de Spark avec YARN 13.2.Le partitionnement des données dans les RDD 13.3.Exemple : le partitionnement dans les requêtes 13.4.Jobs, étapes et tâches 13.5.Exemple : le plan d'exécution de Catalyst 13.6.Exemple : le plan d'exécution de RDD 14.Persistance de la donnée distribuée 14.1.La persistance des DataFrames et des Datasets 14.2.Les niveaux de persistances 14.3.Voir les RDD persistés 15.Les algorithmes itératifs avec Spark 15.1.D'autres cas d'usages courants de Spark 15.2.Les algorithmes itératifs en Spark 15.3.Machine Learning avec Spark 15.4.Exemple : K-means 16.Introduction à Spark structured streaming 16.1.Introduction à Spark Streaming 16.2.Créer des streaming DataFrames 16.3.Transformer des DataFrames 16.4.Exécuter des requêtes de streaming 17.Structured streaming avec Kafka 17.1.Introduction 17.2.Recevoir des messages Kafka 17.3.Envoyer des messages Kafka 18.Aggrégation et jointures sur des streaming dataframes 18.1.Aggregation sur des streaming DataFrames 18.2.Jointure sur des streaming DataFrames Suppléments 19.Le traitement de messages avec Kafka 19.1.Introduction à Kafka 19.2.Passer à l'échelle avec Kafka 19.3.L'architecture d'un cluster Kafka 19.4.La ligne de commande Kafka

Modalités

Modalités : en présentiel, distanciel ou mixte – Horaires de 9H à 12H30 et de 14H à 17H30 soit 7H – Intra et Inter entreprise
Pédagogie : essentiellement participative et ludique, centrée sur l’expérience, l’immersion et la mise en pratique. Alternance d’apports théoriques et d’outils pratiques.
Ressources techniques et pédagogiques : Support de formation au format PDF ou PPT Ordinateur, vidéoprojecteur, Tableau blanc, Visioconférence : Cisco Webex / Teams / Zoom
Pendant la formation : mises en situation, autodiagnostics, travail individuel ou en sous-groupe sur des cas réels

Méthodes

Fin de formation : entretien individuel
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation
Assiduité : certificat de réalisation (validation des acquis)
Contact : contact@astonbysqli.com
 
Code de formation : BD019

Tarifs

Prix public : 4000
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
  • CPF -MonCompteFormation
Contactez nous pour plus d’information

Lieux & Horaires

Durée : 28 heures
Délai d'accès :
Jusqu’à 8 jours avant le début de la formation

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD060

Python avancé pour data-scientists

Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python, savoir extraire des données d'un fichier et les manipuler, mettre en place un modèle d'apprentissage simple. Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python Savoir appliquer les pratiques optimales en matière de nettoyage et de préparation des données avant l'analyse Être capable d'extraire des données d'un fichier Comprendre les mécanismes d'interconnexion aux bases de données Comprendre les principaux outils de traitement et d'analyse de données pour Python

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD007

Big Data – Les fondamentaux de l’analyse des données

Comprendre le rôle stratégique de la gestion des données pour l'entreprise Identifier ce qu'est la donnée, et en quoi consiste le fait d'assurer la qualité de données Synthétiser le cycle de vie de la donnée Assurer l'alignement des usages métiers avec le cycle de vie de la donnée Découvrir les bonnes pratiques en matière de contrôle de qualité des données Assurer la mise en œuvre de la gouvernance de la donnée

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BDP05

Visualisation avancée de données avec Python

Savoir traiter les données scientifiques brutes pour leur visualisation Savoir utiliser les librairies graphiques de python pour visualiser des données Graphiques spécifiques : graphes dynamiques, cartographie

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD0103

Les fondamentaux de l’analyse statistique avec R

Savoir installer R Comprendre comment manipuler des données avec R Savoir importer et exporter des données Être en mesure de réaliser des analyses statistiques basiques avec R Savoir restituer des résultats à l'aide de graphiques

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

DB014

Hadoop, développer des applications pour le Big Data

Construire un programme à base de Map Reduce Intégrer Hadoop HBase dans un workflow d'entreprise Travailler avec Apache Hive et Pig depuis HDFS Utiliser un graphe de tâches avec Hadoop

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

BD016

Hadoop Hortonworks : administration avec Ambari

Connaître les principes du framework Hadoop et savoir l'installer, le configurer et l'administrer avec Ambari (tableaux de bord, supervision, gestion des services, etc ...)

21 heures de formations sur 3 Jours
En savoir plus