Formation Cloudera Developer Training for Apache Hadoop

Formation

À Paris

Prix sur demande

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Description

  • Typologie

    Formation

  • Lieu

    Paris

  • Dates de début

    Dates au choix

CETTE FORMATION CLOUDERA DEVELOPER TRAINING FOR APACHE HADOOP VOUS PERMETTRA DE :
MapReduce et HDFS. Comment écrire le code mapReduce
Meilleures pratiques pour le développement et le débogage de Hadoop et la mise en œuvre des Workflows et des algorithmes courants
Comment utiliser efficacement les autres projets tels que Hive, Pig, Sqoop, Flume, Oozie, Mahout et les autres projets Hadoop
Configuration matérielle optimale et besoins réseaux pour l'intégration d'un cluster Hadoop dans le data center
Ecrire et exécuter les jointures pour lier les sets de données dans MapReduce
Problèmes à prendre en compte dans le développement de travaux Mapreduce
Sujets avancés Hadoop nécessaires pour l'analyse des données en temps réel

Les sites et dates disponibles

Lieu

Date de début

Paris ((75) Paris)
Voir plan
37 Rue des Mathurins, 75008

Date de début

Dates au choixInscriptions ouvertes

À propos de cette formation

Une expérience en programmation est souhaitable (Java de préférence).

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Les Avis

Les exploits du centre

2017

Toutes les formations sont actualisées

L'évaluation moyenne est supérieure à 3,7

Plus de 50 opinions au cours des 12 derniers mois

Ce centre est avec Emagister depuis 9 ans.

Les matières

  • Apache

Le programme

Pourquoi choisir Hadoop ? Problèmes avec les systèmes traditionnels à grande échelle
Introduction à Hadoop
Problèmes liés à HadoopHadoop : Concepts de base et HDFSProjet Hadoop
Composants Hadoop
HDFS (Hadoop Distributed File System) Introduction à MapReduceVue d'ensemble de MapReduce
Exemple: Wordcount
«Mappers»
«Reducers»Clusters Hadoop et Ecosystème HadoopVue d'ensemble du cluster Hadoop
Jobs Hadoop et tâches
Autres composants de l'écosystème HadoopEcriture d'un programme MapReduce dans javaConcepts de base API MapReduce
Ecrire des drivers, des «mappers» et des «reducers» dans Java
Accélérer le développement Hadoop avec Eclipse
Différences entre les nouveaux et les anciens APIs MapReduceEcriture d'un programme MapReduce dans StreamingEcrire des «Mappers» et des «Reducers» avec le streaming APITests des programmes MapReduceTest
Frameworks de tests JUnit et MRUnit
Ecrire des tests avec MRUnit
Activer les testsApprofondir les APIs HadoopUtiliser la classe ToolRunner
Installer et «démonter» les «Mappers» et les «Reducers»
Diminution de la quantité de données intermédiaires avec les multiplexeurs
Accès à la programmation HDFS
Utiliser le cache distribué
Utiliser la bibliothèque de «Mappers», des «Reducers» et des «Partitioners» des APIs HadoopSujets pratiques de développement et techniquesStratégies de débugging du code MapRecuce
Tester le code MapReduce localement avec LocalJobRunner
Récupérer les informations avec les compteurs
Réutiliser des objets
Travaux de Map-only MapReducePartitionneurs et «Reducers»Comment les partitionneurs et les «Reducers» travaillent ensemble
Déterminer le nombre optimal de «Reducers» pour un job
Ecrire les partitionneurs clientsDonnées en entrée et en sortieCréer des mises en œuvre personnalisées «writable» et «writable-comparable»
Sauvegarder des données binaires avec SequenceFile et les fichiers de données Avro
Quand savoir qu'il faut utiliser la compression des fichiers?
Mettre en œuvre les formats d'entrée et les formats de sortie personnalisésAlgorithmes courants MapReduce Trier et rechercher un ensemble de données important
Indexer les données
Fréquence des termes
Fréquence de documents inverses
Co-occurrence Word
Améliorer le tri secondaireJointure de de données dans les jobs MapReduce Ecrire une une jointure «Map-Side»
Réduire les jointures Intégration de Hadoop dans le Workflow de l'entrepriseIntégrer Hadoop dans une entreprise existante
Charger des données d'un RDBMS dans HDFS avec Sqoop
Gérer les données en temps rééel avec Flume
Accéder à HDFS à partir des systèmes légaux avec FuseDFS et HttpFSIntroduction à Hive, Imapala et PigPourquoi Hive, Impala et Pig?
Vue d'ensemble de Hive
Vue d'ensemble de Impala
Vue d'ensemble de Pig
Choisir entre Hive, Impala et PigIntroduction à OozieIntroduction à Oozie
Créer des Workflows Oozie

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Formation Cloudera Developer Training for Apache Hadoop

Prix sur demande