Formation Hadoop, Déployer du Big Data

Formation

À Paris

2 490 € HT

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Description

  • Typologie

    Formation intensive

  • Niveau

    Niveau initiation

  • Lieu

    Paris

  • Heures de classe

    28h

  • Durée

    4 Jours

  • Dates de début

    Dates au choix

Ce cous vous permettra de :
Comprendre le Big Data et ses enjeux - Savoir déployer Hadoop et son écosystème - Comprendre HDFS, MapReduce - Structurer les données avec HBase - Écrire des requêtes avec HiveQL - Lancer une analyse avec Pig

Les sites et dates disponibles

Lieu

Date de début

Paris ((75) Paris)
Voir plan
6 rue Rougemont, 75009

Date de début

Dates au choixInscriptions ouvertes
Dates au choixInscriptions ouvertes

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Les Avis

Les matières

  • Comprendre le Big Data
  • Et ses enjeux
  • Savoir déployer Hadoop
  • Et son écosystème
  • Comprendre HDFS
  • MapReduce - Structurer
  • Les données avec HBase
  • Écrire des requêtes avec HiveQL
  • Lancer une analyse avec Pig
  • Introduction à hadoop

Professeurs

équipe des professeurs

équipe des professeurs

Directeur

Le programme


Introduction au Big Data

Qu'est-ce que le Big Data ?
Source des données : l'homme, la machine
La problématique de taille
Position de Hadoop dans le paysage

Introduction à Hadoop

L'origine du projet
Le système de fichiers HDFS
Comprendre l'algorithme MapReduce
L'environnement d'Hadoop : HBase, ZooKeeper, Hive, Pig…
L'API YARN

Mettre Hadoop en place : HDFS

Du mode autonome au mode complètement distribué en cluster
Pré-requis, distributions Hadoop
Cluster Hadoop : NameNode, ResourceManager, DataNode, NodeManager
Les fichiers de configuration
Opérations de base sur le cluster HDFS : formatage, démarrage, arrêt

Atelier pratique : installer Hadoop sur 2 nœuds, formater et manipuler HDFS

Travailler avec MapReduce

L'intérêt de MapReduce
Mappers, reducers, parallélisme et indépendance des traitements
Entrées, sorties
Soumission d'un job à Hadoop

Atelier pratique : exécuter une tâche via MapReduce, avec sortie dans HDFS

Une base de données distribuée : HBase

L'accès aléatoire, temps réel, lecture-écriture au Big Data
Fonctionnalités de HBase, NoSQL
Pré-requis, configuration
Manipulation via le shell HBase

Atelier pratique : mettre en place HBase sur Hadoop, créer et manipuler une table

Et pourquoi pas un peu de SQL avec Hive ?

Présentation de Hive
Gérer le schéma : bases, tables, vues, partitions
Manipulation des données, requêtes et map-reduce avec HiveQL
Audits et journal d'erreurs

Atelier pratique : chargement de données massives dans Hive, requêtes

Analyser les données avec Pig

Présentation, installation du projet Apache Pig
Exécutions de Pig en local, en mode map-reduce
Scripter pour Pig
Le langage Pig Latin
Manipulations de données et stockage avec Pig

Atelier pratique : écrire un script contenant du Pig Latin pour une tâche simple, et l'exécuter en local, puis en mode map reduce.

Aller plus loin avec Hadoop

Gérer les logs et l'audit de tâches Hadoop
Découvrir MRUnit pour les test unitaires dans Hadoop
Débogage en local
Surveillance des perfomances

Atelier pratique : mise en place d'un job MapReduce plus complexe avec traces et tests unitaires

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Formation Hadoop, Déployer du Big Data

2 490 € HT