Apache HADOOP développer des applications pour le Big Data

Formation

À Paris

Économisez 3%
2 270 € HT

Description

  • Typologie

    Formation intensive

  • Niveau

    Niveau intermédiaire

  • Lieu

    Paris

  • Heures de classe

    28h

  • Durée

    4 Jours

Cette formation vous permettra de développer des applications vous permettant de traiter des données distribuées en mode
batch. Vous collecterez, stockerez et traiterez des données de
formats hétérogènes avec Apache Hadoop afin de mettre en
place des chaînes de traitement intégrées à votre système
d’information.

Les sites et dates disponibles

Lieu

Date de début

Paris ((75) Paris)
Voir plan
58, Rue du Dessous des Berges, 75013

Date de début

Consulter

À propos de cette formation

Développeurs, concepteurs

Maîtrise du langage Java et/ou en architecture web

Nous vous répondrons sous un délai de 24/48 heures

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Emagister S.L. (responsable du traitement) traitera vos données pour mener des actions promotionnelles (par e-mail et/ou téléphone), publier des avis ou gérer des incidents. Vous pouvez consulter vos droits et gérer votre désinscription dans la politique de confidentialité.

Les Avis

Les matières

  • Vous collecterez

Professeurs

xxx xxx

xxx xxx

xxx

Le programme

Le Big Data

Définition du périmètre du Big Data.

Le rôle du projet Hadoop.

Les concepts de base des projets Big Data.

Présentation du Cloud Computing.

Différence entre Cloud Computing privé et

public.

Les architectures Big Data à base du projet

Hadoop.

Collecte de données et application de Map Reduce

Analyse des flux de données dans l’entreprise.

Données structurées et non-structurées.

Les principes de l’analyse sémantique des

données d’entreprise.

Graphe des tâches à base de MapReduce.

La granularité de cohérence des données.

Transfert de données depuis un système de

persistance dans Hadoop.

Transfert de données d’un Cloud dans Hadoop.

Le stockage des données avec HBase

Plusieurs types de base de données XML.

Patterns d’usages et application au Cloud.

Application de Hadoop database au sein d’un

workflow.

Utilisation des projets Hive/Pig.

Utilisation du projet HCatalog.

L’API Java HBase.

Le stockage des données sur HDFS

Patterns d’usages et application au Cloud.

Architecture et installation d’un système

HDFS, journal, NameNode, DataNode.

Opérations, commandes et gestion des

commandes.

L’API HDFS Java.

Analyse de données avec Apache Pig.

Le langage Pig Latin. Utiliser Apache Pig avec

Java.

Requêtage avec Apache Hive.

Réplication de données. Partage de données

sur une architecture HDFS.

Spring Data Hadoop

Introduction à Spring et Spring Data.

Le namespace Hadoop pour Spring.

Utiliser Spring pour simplifier la configuration

Hadoop.

Configuration du cache distribué.

Définition des Jobs et dépendance entre Jobs.

Intégration des outils (Pig, Hive...).

Apache HADOOP développer des applications pour le Big Data

2 270 € HT