Administration de hadoop pour solutions big data
Formation
A distance
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Description
-
Typologie
Formation
-
Méthodologie
A distance
À propos de cette formation :L'émergence de grands volumes de données représente de nouvelles opportunités et de nouveaux défis pour les entreprises de toute taille. Au cours de cette formation Big Data, vous allez acquérir les compétences pratiques nécessaires pour installer, configurer et gérer la plateforme Hadoop d'Apache. Vous apprendrez également à construire un cluster Hadoop, à sauvegarder et sécuriser les données de votre cluster et à intégrer des applications et des outils, parmi lesquels Sqoop, Flume, Pig, Hive et HBase.
À propos de cette formation
À qui s'adresse cette formation ?Aux administrateurs Hadoop, aux administrateurs de systèmes Linux, aux administrateurs de bases de données, aux administrateurs de réseaux et aux développeurs qui ont besoin de savoir comment installer et gérer leurs clusters de développement Hadoop.
Les Avis
Les exploits du centre
Toutes les formations sont actualisées
L'évaluation moyenne est supérieure à 3,7
Plus de 50 opinions au cours des 12 derniers mois
Ce centre est avec Emagister depuis 16 ans.
Le programme
Stockage et traitement des données
Installation du système de fichiers distribuéHadoop (HDFS)
- Définir l'architecture globale et ses principaux composants
- Configurer et installer le système de fichiers
- Exécuter des commandes depuis la console
- Accéder aux fichiers en lecture et en écriture
- Revoir les principes de MapReduce
- Découvrir les démons informatiques
- Examiner une tâche MapReduce
Définition des spécifications d'un cluster Hadoop
Planification de l'architecture
- Choisir le matériel adéquat
- Concevoir un cluster évolutif
- Installer les démons Hadoop
- Optimiser l'architecture du réseau
Configuration du cluster
Préparation du système HDFS
- Paramétrer les principales options de configuration
- Configurer les redondance, réplication et affectation des blocs
- Installer et paramétrer l'environnement MapReduce
- Réaliser l'équilibrage de charge par la connaissance des racks
Optimiser la robustesse du système HDFS
Créer un système de fichiers tolérant aux pannes
- Isoler les éléments dysfonctionnels
- Garantir la haute disponibilité
- Déclencher manuellement le basculement
- Automatiser le basculement avec Zookeeper
- Développer des ressources HDFS
- Gérer les volumes des espaces de noms
- Analyser l'architecture de YARN
- Identifier les nouveaux démons
Gestion des ressources et de l'intégrité du cluster
Affectation des ressources
- Définir des quotas pour limiter l'utilisation du système HDFS
- Planificateurs pour hiérarchiser l'accès à MapReduce
- Démarrer et arrêter des démons Hadoop
- Surveiller l'état du système HDFS
- Ajouter et supprimer des nœuds de données
- Gérer les tâches MapReduce, suivre l'avancement avec des outils d'analyse, mise en service et arrêt des nœuds de calcul
Maintenance du cluster
Utiliser les outils standards intégrés
- Gérer et déboguer les processus avec les mesures JVM
- Vérifier l'état d'Hadoop
- Évaluer les performances avec Ganglia et Chukwa
- Benchmarking pour garantir des performances continues
Développement des fonctionnalités d'Hadoop
Simplifier l'accès aux informations
- Activer l'envoi de requêtes de type SQL avec Hive
- Installer Pig pour créer des tâches MapReduce
- Afficher le système HDFS sous forme de tableau avec HBase
- Configurer Oozie pour la planification des workflows
Définition de règles pour le trafic entrant et sortant
Faciliter l'entrée / la sortie de données génériques
- Déplacer des blocs de données depuis ou vers Hadoop
- Transférer des données HDFS via HTTP avec WebHDES
- Récupérer des fichiers journaux provenant de différentes sources avec Flume, importer et exporter des informations sur les bases de données relationnelles avec Sqoop
Planification des stratégies de sauvegarde, de récupération et de sécurité
- Gérer les pannes matérielles courantes
- Sécuriser le cluster Hadoop
Informations complémentaires
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Administration de hadoop pour solutions big data