Formation indisponible à l'heure actuelle
Big Data : Programmer Hadoop en Java
Formation
À Paris ()
Description
-
Typologie
Formation
Vous apprendrez à Mettre en œuvre des tâches Hadoop pour extraire des éléments pertinents d’ensembles de données volumineux et variés et apporter ainsi de la valeur à votre entrepriseCréer, personnaliser et déployer des tâches MapReduce pour synthétiser les donnéesCharger des données non structurées des systèmes HDFS et HBase
Les Avis
Les exploits du centre
Toutes les formations sont actualisées
L'évaluation moyenne est supérieure à 3,7
Plus de 50 opinions au cours des 12 derniers mois
Ce centre est avec Emagister depuis 18 ans.
Le programme
- Évaluer la valeur que peut apporter Hadoop à l’entreprise
- Examiner l’écosystème d’Hadoop
- Choisir un modèle de distribution adapté
- Examiner les difficultés liées à l’exécution de programmes parallèles : algorithmes, échange des données
- Évaluer le mode de stockage et la complexité du Big Data
- Fragmenter et résoudre les problèmes à grande échelle
- Découvrir les tâches compatibles avec MapReduce
- Résoudre des problèmes métier courants
- Configurer l’environnement de développement
- Examiner la distribution Hadoop
- Étudier les démons Hadoop
- Créer les différents composants des tâches MapReduce
- Analyser les différentes étapes de traitement MapReduce : fractionnement, mappage, lecture aléatoire et réduction
- Choisir et utiliser plusieurs outils de mappage et de réduction, exploiter les partitionneurs et les fonctions map et reduce intégrées, analyser les données en séries temporelles avec un second tri, rationaliser les tâches dans différents langages de programmation
- Exécuter les algorithmes : tris, jointures et recherches parallèles, analyser les fichiers journaux, les données des média sociaux et les courriels
- Identifier les algorithmes parallèles liés au réseau, au processeur et aux E/S de disque
- Répartir la charge de travail avec les partitionneurs
- Contrôler l’ordre de groupement et de tri avec les comparateurs
- Mesurer les performances avec les compteurs
- Optimiser les performances du débit des données
- Utiliser la redondance pour récupérer les données
- Analyser la structure et l’organisation du HDFS
- Charger des données brutes et récupérer le résultat
- Lire et écrire des données avec un programme
- Manipuler les types SequenceFile d’Hadoop
- Partager des données de référence avec DistributedCache
- Passer du stockage structuré au stockage non structuré
- Appliquer les principes NoSQL avec une application de modèle à la lecture, se connecter à HBase à partir des tâches MapReduce, comparer HBase avec d’autres types de magasins de données NoSQL
- Structurer bases de données, les tables, les vues et les partitions
- Intégrer des travaux MapReduce avec des requêtes Hive
- Lancer des requêtes avec HiveQL
- Accéder aux servers Hive via IDBC, ajouter des fonctionnalités à HiveQL avec les fonctions définies par l’utilisateur
- Développer des scripts Pig Latin pour consolider les workflows, intégrer des requêtes Pig à Java
- Interagir avec les données par le biais de la console Grunt
- Étendre Pig avec les fonctions définies par l’utilisateur
- Enregistrer des événements importants à auditer et à déboguer
- Valider les spécifications avec MRUnit
- Déboguer en mode local
- Déployer la solution sur un cluster de production, utiliser des outils d’administration pour optimiser les performances, surveiller l’exécution des tâches via les interfaces utilisateur web
Big Data : Programmer Hadoop en Java
