Formation indisponible à l'heure actuelle

Administration de Hadoop pour solutions Big Data

Formation

À Paris ()

Prix sur demande

Description

  • Typologie

    Formation

Vous apprendrez à Créer l'architecture d'une solution Hadoop pour répondre auxbesoins de votre entrepriseInstaller et configurer un cluster Hadoop qui gère des ensemblesde données volumineuxConfigurer et personnaliser un environnement Hadoop pour optimiser la disponibilité et le débit des données

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Emagister S.L. (responsable du traitement) traitera vos données pour mener des actions promotionnelles (par e-mail et/ou téléphone), publier des avis ou gérer des incidents. Vous pouvez consulter vos droits et gérer votre désinscription dans la politique de confidentialité.

Les Avis

Les exploits du centre

2016

Toutes les formations sont actualisées

L'évaluation moyenne est supérieure à 3,7

Plus de 50 opinions au cours des 12 derniers mois

Ce centre est avec Emagister depuis 18 ans.

Les matières

  • Big data
  • Informatique de gestion
  • Hadoop

Le programme

Stockage et traitement des donnéesInstallation du système de fichiers distribuéHadoop (HDFS)
  • Définir l'architecture globale et ses principaux composants
  • Configurer et installer le système de fichiers
  • Exécuter des commandes depuis la console
  • Accéder aux fichiers en lecture et en écriture
Préparer l'environnement pour MapReduce
  • Revoir les principes de MapReduce
  • Découvrir les démons informatiques
  • Examiner une tâche MapReduce
Définition des spécifications d'un cluster HadoopPlanification de l'architecture
  • Choisir le matériel adéquat
  • Concevoir un cluster évolutif
Développement du cluster
  • Installer les démons Hadoop
  • Optimiser l'architecture du réseau
Configuration du clusterPréparation du système HDFS
  • Paramétrer les principales options de configuration
  • Configurer les redondance, réplication et affectation des blocs
Déploiement de MapReduce
  • Installer et paramétrer l'environnement MapReduce
  • Réaliser l'équilibrage de charge par la connaissance des racks
Optimiser la robustesse du système HDFSCréer un système de fichiers tolérant aux pannes
  • Isoler les éléments dysfonctionnels
  • Garantir la haute disponibilité
  • Déclencher manuellement le basculement
  • Automatiser le basculement avec Zookeeper
Optimiser la fédération des nœuds de nommage
  • Développer des ressources HDFS
  • Gérer les volumes des espaces de noms
Présentation de YARN
  • Analyser l'architecture de YARN
  • Identifier les nouveaux démons
Gestion des ressources et de l'intégrité du clusterAffectation des ressources
  • Définir des quotas pour limiter l'utilisation du système HDFS
  • Planificateurs pour hiérarchiser l'accès à MapReduce
Gestion de HDFS
  • Démarrer et arrêter des démons Hadoop
  • Surveiller l'état du système HDFS
  • Ajouter et supprimer des nœuds de données
Administration de MapReduce
  • Gérer les tâches MapReduce, suivre l'avancement avec des outils d'analyse, mise en service et arrêt des nœuds de calcul
Maintenance du clusterUtiliser les outils standards intégrés
  • Gérer et déboguer les processus avec les mesures JVM
  • Vérifier l'état d'Hadoop
Utiliser des outils de personnalisation complémentaires
  • Évaluer les performances avec Ganglia et Chukwa
  • Benchmarking pour garantir des performances continues
Développement des fonctionnalités d'HadoopSimplifier l'accès aux informations
  • Activer l'envoi de requêtes de type SQL avec Hive
  • Installer Pig pour créer des tâches MapReduce
Intégrer des éléments supplémentaires de l'écosystème
  • Afficher le système HDFS sous forme de tableau avec HBase
  • Configurer Oozie pour la planification des workflows
Définition de règles pour le trafic entrant et sortantFaciliter l'entrée / la sortie de données génériques
  • Déplacer des blocs de données depuis ou vers Hadoop
  • Transférer des données HDFS via HTTP avec WebHDES
Recueillir des données d'application
  • Récupérer des fichiers journaux provenant de différentes sources avec Flume, importer et exporter des informations sur les bases de données relationnelles avec Sqoop
Planification des stratégies de sauvegarde, de récupération et de sécurité
  • Gérer les pannes matérielles courantes
  • Sécuriser le cluster Hadoop

Administration de Hadoop pour solutions Big Data

Prix sur demande