Formation Cloudera Administrator Training for Apache Hadoop
Formation
À Paris
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Description
-
Typologie
Formation
-
Lieu
Paris
-
Dates de début
Dates au choix
CETTE FORMATION CLOUDERA ADMINISTRATOR TRAINING FOR APACHE HADOOP VOUS PERMETTRA DE :
Se familiariser avec HDFS et MapReduce et la création de l'architecture Hadoop
Configuration des clusters et déploiement afin de faciliter l'intégration avec d'autres systèmes et le matériel dans un data center
Charger les données dans un Cluster à partir des fichiers gérés dynamiquement à l'aide de Flume et à partir de RDBMS à l'aide de Sqoop
Configurer FairScheduler pour fournir les agréments niveau service pour de multiples utilisateurs d'un cluster
Installer et mettre en œuvre la sécurité basée sur Kerberos
Meilleures pratiques pour préparer et maintenir Apache Hadoop en production
Dépanner, diagnostiquer, réglages et résolution des problèmes Hadoop
Les sites et dates disponibles
Lieu
Date de début
Date de début
À propos de cette formation
Avoir de bonnes connaissances de base sur le système Linux.
Visiter leur site web
Les Avis
Les exploits du centre
Toutes les formations sont actualisées
L'évaluation moyenne est supérieure à 3,7
Plus de 50 opinions au cours des 12 derniers mois
Ce centre est avec Emagister depuis 9 ans.
Les matières
- Apache
- Manager
Le programme
Bref historique de Hadoop
Composants Hadoop
Concepts fondamentauxHDFSFonctionnalités HDFS
Ecrire et lire des fichiers
NameNode
Vue d'ensemble de la sécurité HDFS
Utiliser l'interface Web NameNode
Utiliser le Shell fichiers HadoopIntégration de données dans HDFSIngérer des données à partir de sources externes avec Flume
Ingérer des données à partir de bases de données relationnelles avec Sqoop
Bases de données avec Sqoop
Interfaces REST
Meilleures pratiques pour l'importation des donnéesMapReduceQu'est-ce que MapReduce?
Fonctionnalités de MapReduce
Concepts de base
Vue d'ensemble de l'architecture
MapReduce version 2
Récupération des échecs
Utiliser l'interface utilisateur JobTrackerPlanification du cluster Hadoop Besoins en planification générale
Choisir le matériel adapté
Besoins réseau
Configurer les «nœud»
Planning de la gestion des clustersInstallation Hadoop et configuration initialeTypes de déploiement
Installer Hadoop
Spécifier la configuration Hadoop
Améliorer la configuration initiale HDFS
Améliorer la configuration MapReduce initiale
Localisation des fichiers journauxInstallation et configuration de Hive, de Impala et de PigHive
Impala
PigClients HadoopQu'est-ce que le client Hadoop?
Installer et configurer les clients Hadoop
Installer et configurer Hue
Authentification Hue et configurationCloudera ManagerFonctionnalités Cloudera Manager
Versions standards et d'entreprise
Topologie Cloudera manager
Installer Cloudera Manager
Installer Hadoop avec Cloudera Manager
Améliorer les tâches d'administration de base
Utiliser Cloudera ManagerConfiguration avancée du clusterParamètres de configuration avancée
Configurer les ports Hadoop
Inclusion et exclusion des hôtes
Configurer HDFS pour "Rack awareness"
Configurer la haute disponibilité HDFSSécurité HadoopPourquoi la sécurité Hadoop est-elle importante?
Les concepts de systèmes de sécurité
Qu'est-ce que Kerberos et comment il fonctionne?
Sécuriser un cluster Hadoop avec KerberosGestion et planification des jobsGérer le fonctionnement des jobs
Planifier les jobs Hadoop
Configurer FairSchedulerMaintenance du ClusterVérifier le statut HDFS
Copier les données entre les clusters
Ajouter et supprimer les nœuds des clusters
Rééquilibrer le cluster
Sauvegarde des métadonnées NameNode
Mise à jour du ClusterSurveillance et dépannage du clusterSurveillance du système général
Gérer les fichiers journaux Hadoop
Surveiller les clusters Hadoop
Problèmes de dépannage courants
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Formation Cloudera Administrator Training for Apache Hadoop