Formation Big Data : Les fondamentaux
Formation
À Levallois-Perret
Description
-
Typologie
Formation
-
Lieu
Levallois-perret
Il est indispensable de pouvoir gérer les ensembles de données dont le volume est susceptible de croître rapidement. Au cours de cette formation Big Data, vous allez acquérir les connaissances nécessaires pour exploiter les nouveaux outils dédiés au Big Data et apprendre différentes techniques de stockage des informations qui vous permettront de traiter et d'analyser les données efficacement et vous aideront à prendre des décisions métier éclairées
Les sites et dates disponibles
Lieu
Date de début
Date de début
Les Avis
Le programme
Présentation du Big Data
Définition Les quatre dimensions du Big Data : volume, vélocité, variété, véracité Présentation de l'ensemble MapReduce, stockage et requêtes Améliorer les résultats de l'entreprise grâce au Big Data Mesurer l'importance du Big Data au sein d'une entreprise Réussir à extraire des données utiles Intégrer le Big Data aux données traditionnelles
Stockage du Big DataAnalyser les caractéristiques de vos données Sélectionner les sources de données à analyser Supprimer les doublons Définir le rôle de NoSQL Présentation des entrepôts de Big Data Modèles de données : valeur clé, graphique, document, famille de colonnes Système de fichiers distribué Hadoop (HDFS) HBase Hive Cassandra Hypertable Amazon S3 BigTable DynamoDB MongoDB Redis Riak Neo4J Choisir un entrepôt de Big Data Choisir un entrepôt de données en fonction des caractéristiques de vos données Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise
Traitement du Big DataIntégrer différents entrepôts de données Mapper les données avec le framework de programmation, se connecter aux données et les extraire de l'entrepôt de stockage, transformer les données à traiter Fractionner les données pour Hadoop MapReduce Utiliser Hadoop MapReduce Créer les composants des tâches Hadoop MapReduce Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce Surveiller l'avancement des flux de tâches Principes fondamentaux de Hadoop MapReduce Identifier les démons Hadoop Examiner le système de fichiers distribué Hadoop (HDFS) Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué
Techniques et outils d'analyse du Big DataSynthétiser les tâches Hadoop MapReduce avec Pig Communiquer avec Hadoop en Pig Latin Exécuter des commandes avec le shell Grunt Rationaliser les traitements de haut niveau Lancer des requêtes ad hoc sur le Big Data avec Hive Assurer la persistance des données dans le Hive MegaStore Lancer des requêtes avec HiveQL Examiner le format des fichiers Hive Extraire des données donnant de la valeur à l'entreprise Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement
Mise en œuvre d'une stratégie dédiée au Big DataÉlaborer une stratégie dédiée au Big Data Définir les besoins en matière de Big Data Atteindre les objectifs grâce à la pertinence des données Évaluer les différents outils du marché dédiés au Big Data Répondre aux attentes du personnel de l'entreprise Une méthode analytique innovante Identifier l'importance des traitements métier Cerner le problème Choisir les bons outils Obtenir des résultats exploitables Analyse statistique du Big Data Exploiter la fonctionnalité RHadoop Générer des états statistiques avec RHadoop Utiliser la visualisation RHadoop Exploiter les résultats des analyses
Mettre en œuvre une solution Big DataBien choisir les fournisseurs et options d'hébergement Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise Garder une longueur d'avance
Formation Big Data : Les fondamentaux
