Développer des applications Big Data avec Hadoop

Formation

A distance

Prix sur demande

Description

  • Typologie

    Formation

  • Méthodologie

    A distance

  • Dates de début

    Dates au choix

La formation Hadoop permet de construire un programme à base de Map Reduce, d'intégrer Hadoop HBase dans un workflow d'entreprise, de travailler avec Apache Hive et Pig depuis HDFS et d'utiliser un graphe de tâches avec Hadoop. .

Les sites et dates disponibles

Lieu

Date de début

A distance

Date de début

Dates au choixInscriptions ouvertes

Questions / Réponses

Ajoutez votre question

Nos conseillers et autres utilisateurs pourront vous répondre

À qui souhaitez-vous addresser votre question?

Saisissez vos coordonnées pour recevoir une réponse

Nous ne publierons que votre nom et votre question

Emagister S.L. (responsable du traitement) traitera vos données pour mener des actions promotionnelles (par e-mail et/ou téléphone), publier des avis ou gérer des incidents. Vous pouvez consulter vos droits et gérer votre désinscription dans la politique de confidentialité.

Les Avis

Les matières

  • Workflow
  • Apache
  • Analyse de résultats

Le programme

Le Big Data

  • Définition du périmètre du Big Data.
  • Le rôle du projet Hadoop.
  • Les concepts de base des projets Big Data.
  • Différence entre Cloud Computing privé et public.
  • Les architectures Big Data à base du projet Hadoop.
  • Démonstration
  • Usage d'Hadoop et de GoogleApp.
Collecte de données et application de Map Reduce
  • Analyse des flux de données dans l'entreprise.
  • Données structurées et non-structurées.
  • Les principes de l'analyse sémantique des données d'entreprise.
  • Graphe des tâches à base de MapReduce.
  • La granularité de cohérence des données.
  • Transfert de données depuis un système de persistance dans Hadoop.
  • Transfert de données d'un Cloud dans Hadoop.
Le stockage des données avec HBase
  • Plusieurs types de base de données XML.
  • Patterns d'usages et application au cloud.
  • Application de Hadoop database au sein d'un workflow.
  • Utilisation des projets Hive/Pig.
  • Utilisation du projet HCatalog.
Le stockage des données sur HDFS
  • Patterns d'usages et application au Cloud.
  • Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
  • Opérations, commandes et gestion des commandes.
  • Analyse de données avec Apache Pig.
  • Requêtage avec Apache Hive.
  • Partage de données sur une architecture HDFS.
La fouille des données avec Apache Mahout
  • Les principales méthodes descriptives et prédictives.
  • Transformation des formats de données.
  • Utilisation de K-Means en profondeur.
  • Organisation une chaîne de traitement.
  • Mise en oeuvre évolutive d'algorithmes d'apprentissage.
Spring Data Hadoop
  • Introduction à Spring et Spring Data.
  • Le namespace Hadoop pour Spring.
  • Utiliser Spring pour simplifier la configuration Hadoop.
  • Configuration du cache distribué.
  • Définition des Jobs et dépendance entre Jobs.
  • Intégration des outils (Pig, Hive...).

Développer des applications Big Data avec Hadoop

Prix sur demande