Administration de hadoop pour solutions big data

Formation

A distance

Prix sur demande

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Description

  • Typologie

    Formation

  • Méthodologie

    A distance

À propos de cette formation :L'émergence de grands volumes de données représente de nouvelles opportunités et de nouveaux défis pour les entreprises de toute taille. Au cours de cette formation Big Data, vous allez acquérir les compétences pratiques nécessaires pour installer, configurer et gérer la plateforme Hadoop d'Apache. Vous apprendrez également à construire un cluster Hadoop, à sauvegarder et sécuriser les données de votre cluster et à intégrer des applications et des outils, parmi lesquels Sqoop, Flume, Pig, Hive et HBase.

À propos de cette formation

À qui s'adresse cette formation ?Aux administrateurs Hadoop, aux administrateurs de systèmes Linux, aux administrateurs de bases de données, aux administrateurs de réseaux et aux développeurs qui ont besoin de savoir comment installer et gérer leurs clusters de développement Hadoop.

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Les Avis

Les exploits du centre

2016

Toutes les formations sont actualisées

L'évaluation moyenne est supérieure à 3,7

Plus de 50 opinions au cours des 12 derniers mois

Ce centre est avec Emagister depuis 16 ans.

Le programme

Stockage et traitement des données

Installation du système de fichiers distribuéHadoop (HDFS)

  • Définir l'architecture globale et ses principaux composants
  • Configurer et installer le système de fichiers
  • Exécuter des commandes depuis la console
  • Accéder aux fichiers en lecture et en écriture
Préparer l'environnement pour MapReduce
  • Revoir les principes de MapReduce
  • Découvrir les démons informatiques
  • Examiner une tâche MapReduce

Définition des spécifications d'un cluster Hadoop

Planification de l'architecture

  • Choisir le matériel adéquat
  • Concevoir un cluster évolutif
Développement du cluster
  • Installer les démons Hadoop
  • Optimiser l'architecture du réseau

Configuration du cluster

Préparation du système HDFS

  • Paramétrer les principales options de configuration
  • Configurer les redondance, réplication et affectation des blocs
Déploiement de MapReduce
  • Installer et paramétrer l'environnement MapReduce
  • Réaliser l'équilibrage de charge par la connaissance des racks

Optimiser la robustesse du système HDFS

Créer un système de fichiers tolérant aux pannes

  • Isoler les éléments dysfonctionnels
  • Garantir la haute disponibilité
  • Déclencher manuellement le basculement
  • Automatiser le basculement avec Zookeeper
Optimiser la fédération des nœuds de nommage
  • Développer des ressources HDFS
  • Gérer les volumes des espaces de noms
Présentation de YARN
  • Analyser l'architecture de YARN
  • Identifier les nouveaux démons

Gestion des ressources et de l'intégrité du cluster

Affectation des ressources

  • Définir des quotas pour limiter l'utilisation du système HDFS
  • Planificateurs pour hiérarchiser l'accès à MapReduce
Gestion de HDFS
  • Démarrer et arrêter des démons Hadoop
  • Surveiller l'état du système HDFS
  • Ajouter et supprimer des nœuds de données
Administration de MapReduce
  • Gérer les tâches MapReduce, suivre l'avancement avec des outils d'analyse, mise en service et arrêt des nœuds de calcul

Maintenance du cluster

Utiliser les outils standards intégrés

  • Gérer et déboguer les processus avec les mesures JVM
  • Vérifier l'état d'Hadoop
Utiliser des outils de personnalisation complémentaires
  • Évaluer les performances avec Ganglia et Chukwa
  • Benchmarking pour garantir des performances continues

Développement des fonctionnalités d'Hadoop

Simplifier l'accès aux informations

  • Activer l'envoi de requêtes de type SQL avec Hive
  • Installer Pig pour créer des tâches MapReduce
Intégrer des éléments supplémentaires de l'écosystème
  • Afficher le système HDFS sous forme de tableau avec HBase
  • Configurer Oozie pour la planification des workflows

Définition de règles pour le trafic entrant et sortant

Faciliter l'entrée / la sortie de données génériques

  • Déplacer des blocs de données depuis ou vers Hadoop
  • Transférer des données HDFS via HTTP avec WebHDES
Recueillir des données d'application
  • Récupérer des fichiers journaux provenant de différentes sources avec Flume, importer et exporter des informations sur les bases de données relationnelles avec Sqoop

Planification des stratégies de sauvegarde, de récupération et de sécurité

  • Gérer les pannes matérielles courantes
  • Sécuriser le cluster Hadoop

Informations complémentaires

Travaux Pratiques :Installer Hadoop sur un cluster Accéder au système de fichiers distribué Hadoop (HDFS)en lecture et en écriture Mettre en œuvre la haute disponibilité, le basculement et la récupération des données Mettre en place la fédération des nœuds de nommagePlanifier et surveiller des tâches Hadoop avec GangliaDéplacer des données avec Flume et Sqoop

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Administration de hadoop pour solutions big data

Prix sur demande