Développer des applications Big Data avec Hadoop

Formation

A distance

Prix sur demande

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Description

  • Typologie

    Formation

  • Méthodologie

    A distance

  • Dates de début

    Dates au choix

La formation Hadoop permet de construire un programme à base de Map Reduce, d'intégrer Hadoop HBase dans un workflow d'entreprise, de travailler avec Apache Hive et Pig depuis HDFS et d'utiliser un graphe de tâches avec Hadoop. .

Les sites et dates disponibles

Lieu

Date de début

A distance

Date de début

Dates au choixInscriptions ouvertes

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Les Avis

Les matières

  • Workflow
  • Apache
  • Analyse de résultats

Le programme

Le Big Data

  • Définition du périmètre du Big Data.
  • Le rôle du projet Hadoop.
  • Les concepts de base des projets Big Data.
  • Différence entre Cloud Computing privé et public.
  • Les architectures Big Data à base du projet Hadoop.
  • Démonstration
  • Usage d'Hadoop et de GoogleApp.
Collecte de données et application de Map Reduce
  • Analyse des flux de données dans l'entreprise.
  • Données structurées et non-structurées.
  • Les principes de l'analyse sémantique des données d'entreprise.
  • Graphe des tâches à base de MapReduce.
  • La granularité de cohérence des données.
  • Transfert de données depuis un système de persistance dans Hadoop.
  • Transfert de données d'un Cloud dans Hadoop.
Le stockage des données avec HBase
  • Plusieurs types de base de données XML.
  • Patterns d'usages et application au cloud.
  • Application de Hadoop database au sein d'un workflow.
  • Utilisation des projets Hive/Pig.
  • Utilisation du projet HCatalog.
Le stockage des données sur HDFS
  • Patterns d'usages et application au Cloud.
  • Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
  • Opérations, commandes et gestion des commandes.
  • Analyse de données avec Apache Pig.
  • Requêtage avec Apache Hive.
  • Partage de données sur une architecture HDFS.
La fouille des données avec Apache Mahout
  • Les principales méthodes descriptives et prédictives.
  • Transformation des formats de données.
  • Utilisation de K-Means en profondeur.
  • Organisation une chaîne de traitement.
  • Mise en oeuvre évolutive d'algorithmes d'apprentissage.
Spring Data Hadoop
  • Introduction à Spring et Spring Data.
  • Le namespace Hadoop pour Spring.
  • Utiliser Spring pour simplifier la configuration Hadoop.
  • Configuration du cache distribué.
  • Définition des Jobs et dépendance entre Jobs.
  • Intégration des outils (Pig, Hive...).

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Développer des applications Big Data avec Hadoop

Prix sur demande