Learning Tree

Introduction au big data et à nosql

Learning Tree
A distance

Prix à consulter
Ou préférez-vous appeler directement le centre?
01 49... Voir plus

Infos importantes

Typologie Formation
Méthodologie A distance
  • Formation
  • A distance
Description

À propos de cette formation :Vous allez acquérir les connaissances pour exploiter les nouveaux outils dédiés au Big Data et apprendre les techniques de stockage des informations qui vous permettront de traiter et d'analyser les données efficacement et vous aideront à prendre des décisions métier éclairées. Vous apprenez à stocker, gérer, traiter et analyser des ensembles volumineux de données non structurées.

Foire aux questions

· À qui s'adresse-t-elle?

À qui s'adresse cette formation ?À toute personne souhaitant profiter des nombreux avantages liés aux technologies dédiées au Big Data.

Opinions

0.0
Non évalué
Évaluation de la formation
100%
Recommandé
4.5
fantastique
Évaluation du Centre

Opinions sur cette formation

Il n'y a pas encore d'opinions sur cette formation
* Opinions recueillies par Emagister et iAgora

Performances de ce centre

2016

Comment obtenir le sceau CUM LAUDE ?

Toutes les formations sont actualisées

L'évaluation moyenne est supérieure à 3,7

Plus de 50 opinions au cours des 12 derniers mois

Ce centre est avec Emagister depuis 11 ans.

Qu'apprend-on avec cette formation ?

Requêtes

Programme

Présentation du Big Data

Définition

  • Les quatre dimensions du Big Data : volume, vélocité, variété, véracité
  • Présentation de l'ensemble MapReduce, stockage et requêtes
Améliorer les résultats de l'entreprise grâce au Big Data
  • Mesurer l'importance du Big Data au sein d'une entreprise
  • Réussir à extraire des données utiles
  • Intégrer le Big Data aux données traditionnelles

Stockage du Big Data

Analyser les caractéristiques de vos données

  • Sélectionner les sources de données à analyser
  • Supprimer les doublons
  • Définir le rôle de NoSQL
Présentation des entrepôts de Big Data
  • Modèles de données : valeur clé, graphique, document, famille de colonnes
  • Système de fichiers distribué Hadoop (HDFS)
  • HBase
  • Hive
  • Cassandra
  • Hypertable
  • Amazon S3
  • BigTable
  • DynamoDB
  • MongoDB
  • Redis
  • Riak
  • Neo4J
Choisir un entrepôt de Big Data
  • Choisir un entrepôt de données en fonction des caractéristiques de vos données
  • Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues
  • Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise

Traitement du Big Data

Intégrer différents entrepôts de données

  • Mapper les données avec le framework de programmation, se connecter aux données et les extraire de l'entrepôt de stockage, transformer les données à traiter
  • Fractionner les données pour Hadoop MapReduce
Utiliser Hadoop MapReduce
  • Créer les composants des tâches Hadoop MapReduce
  • Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce
  • Surveiller l'avancement des flux de tâches
Principes fondamentaux de Hadoop MapReduce
  • Identifier les démons Hadoop
  • Examiner le système de fichiers distribué Hadoop (HDFS)
  • Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué
Gérer des données de streaming
  • Comparer des modèles de traitement en temps réel
  • Exploiter Storm pour extraire des événements en direct
  • Traitement rapide avec Spark et Shark

Techniques et outils d'analyse du Big Data

Synthétiser les tâches Hadoop MapReduce avec Pig

  • Communiquer avec Hadoop en Pig Latin
  • Exécuter des commandes avec le shell Grunt
  • Rationaliser les traitements de haut niveau
Lancer des requêtes ad hoc sur le Big Data avec Hive
  • Assurer la persistance des données dans le Hive MegaStore
  • Lancer des requêtes avec HiveQL
  • Examiner le format des fichiers Hive
Extraire des données donnant de la valeur à l'entreprise
  • Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement
  • Interroger en temps réel avec Impala

Mise en œuvre d'une stratégie dédiée au Big Data

Élaborer une stratégie dédiée au Big Data

  • Définir les besoins en matière de Big Data
  • Atteindre les objectifs grâce à la pertinence des données
  • Évaluer les différents outils du marché dédiés au Big Data
  • Répondre aux attentes du personnel de l'entreprise
Une méthode analytique innovante
  • Identifier l'importance des traitements métier
  • Cerner le problème
  • Choisir les bons outils
  • Obtenir des résultats exploitables

Mettre en œuvre une solution Big Data

  • Bien choisir les fournisseurs et options d'hébergement
  • Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise
  • Garder une longueur d'avance

Information supplémentaire

Travaux Pratiques :Intégrer des composants Big Data clés pour créer une plateforme Big Data Charger des données non structurées dans le système de fichiers distribué Hadoop (HDFS) Interroger des tâches Hadoop MapReduce avec Hive Simplifier le traitement du Big Data et communiquer avec Pig Latin

Ceux qui ont consulté cette formation ont également consulté...
En voir plus