Formation indisponible à l'heure actuelle
Administration de Hadoop pour solutions Big Data
Formation
À Paris ()
Description
-
Typologie
Formation
Vous apprendrez à Créer l'architecture d'une solution Hadoop pour répondre auxbesoins de votre entrepriseInstaller et configurer un cluster Hadoop qui gère des ensemblesde données volumineuxConfigurer et personnaliser un environnement Hadoop pour optimiser la disponibilité et le débit des données
Les Avis
Les exploits du centre
Toutes les formations sont actualisées
L'évaluation moyenne est supérieure à 3,7
Plus de 50 opinions au cours des 12 derniers mois
Ce centre est avec Emagister depuis 18 ans.
Les matières
- Big data
- Informatique de gestion
- Hadoop
Le programme
- Définir l'architecture globale et ses principaux composants
- Configurer et installer le système de fichiers
- Exécuter des commandes depuis la console
- Accéder aux fichiers en lecture et en écriture
- Revoir les principes de MapReduce
- Découvrir les démons informatiques
- Examiner une tâche MapReduce
- Choisir le matériel adéquat
- Concevoir un cluster évolutif
- Installer les démons Hadoop
- Optimiser l'architecture du réseau
- Paramétrer les principales options de configuration
- Configurer les redondance, réplication et affectation des blocs
- Installer et paramétrer l'environnement MapReduce
- Réaliser l'équilibrage de charge par la connaissance des racks
- Isoler les éléments dysfonctionnels
- Garantir la haute disponibilité
- Déclencher manuellement le basculement
- Automatiser le basculement avec Zookeeper
- Développer des ressources HDFS
- Gérer les volumes des espaces de noms
- Analyser l'architecture de YARN
- Identifier les nouveaux démons
- Définir des quotas pour limiter l'utilisation du système HDFS
- Planificateurs pour hiérarchiser l'accès à MapReduce
- Démarrer et arrêter des démons Hadoop
- Surveiller l'état du système HDFS
- Ajouter et supprimer des nœuds de données
- Gérer les tâches MapReduce, suivre l'avancement avec des outils d'analyse, mise en service et arrêt des nœuds de calcul
- Gérer et déboguer les processus avec les mesures JVM
- Vérifier l'état d'Hadoop
- Évaluer les performances avec Ganglia et Chukwa
- Benchmarking pour garantir des performances continues
- Activer l'envoi de requêtes de type SQL avec Hive
- Installer Pig pour créer des tâches MapReduce
- Afficher le système HDFS sous forme de tableau avec HBase
- Configurer Oozie pour la planification des workflows
- Déplacer des blocs de données depuis ou vers Hadoop
- Transférer des données HDFS via HTTP avec WebHDES
- Récupérer des fichiers journaux provenant de différentes sources avec Flume, importer et exporter des informations sur les bases de données relationnelles avec Sqoop
- Gérer les pannes matérielles courantes
- Sécuriser le cluster Hadoop
Administration de Hadoop pour solutions Big Data
