Mastère Spécialisé Valorisation des Données Massives
Mastère spécialisé
À Toulouse

Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Description
-
Typologie
Mastère spécialisé
-
Lieu
Toulouse
-
Durée
13 Mois
-
Dates de début
Septembre
Souhaitez-vous devenir expert dans le domaine de l’informatique et dans le traitement des bases de données massives? Emagister vous propose le Mastère spécialisé qui vous correspond à ce que vous recherchez!
Ce Mastère Spécialisé que vous propose Toulouse INP est centré sur le traitement et la valorisation de données massives, privilégiant une déclinaison pluridisciplinaire en informatique.
Grâce à cette formation vous aurez les compétences nécessaires vous permettant d’apprendre sur les sciences des données et conjuguant les apprentissages scientifiques et opérationnels via un apprentissage par projet et une implication forte d’entreprises partenaires.
Si vous souhaitez avoir plus de renseignements contactez Emagister.fr sans aucun engagement. Un spécialiste vous contactera pour vous informer sur la formation.
Précisions importantes
Modalité Formation en alternance
Les sites et dates disponibles
Lieu
Date de début
Date de début
Date de début
À propos de cette formation
Il s’agit de former des professionnels ayant à la fois des compétences pointues en informatique, en optimisation et en science des données pour la valorisation des gisements de données. La formation abordera les aspects techniques et légaux répondant ainsi aux attentes des métiers suivants : data scientist, data engineer, data manager, data analyst, chef de projet, ingénieur en informatique décisionnelle, responsable de contrôle qualité. L’originalité de la formation est d’adresser un spectre large de compétences en informatique, en science des données et en optimisation.
Ce mastère spécialisé s’adresse aux titulaires d’un diplôme d’ingénieur ou d’un master ou équivalent en mathématiques ou informatique. La formation sera également proposée en contrat de professionnalisation.
Bac + 5 en mathématiques ou informatique. et par dérogation à des : - Bac+4 avec 3 années d'expérience professionnelle - Bac+2 avec 5 à 10 années d'expérience professionnelle après validation des acquis professionnels (VAP)
Mastère Spécialisé
Les Avis
Les matières
- Réseau informatique
- Analyse de résultats
- Statistique
- Data mining
- Intelligence artificielle
- Algorithmes
- R&D
- Python
- Programmation
- Machine Learning
- Virtualisation
- Big data
- Données
- Deep learning
- Calcul haute performance
- Message passing
- Task based
- Data parallel
- MPI
- OpenMP
- Runtime
Professeurs

Enseignant Chercheur
Professeur Emerite
Le programme
Programme du MS VALDOMUE mise à niveau:
- Mise à niveau en Statistique
- Analyse en composantes principales, Modèle linéaire généralisé (régression linéaire, régression logistique)
- Classification non supervisée (Analyse Factorielle Discriminante, Approche hiérarchique, mélange gaussien, k-means)
- Introduction à R ou à Python
- Mise à niveau en Informatique
- Architecture d’un calculateur, système d’exploitation et réseaux
- Algorithmique, structures de données et complexité
- Introduction à la programmation orientée objet
- Bases de données
- Concepts et technologies de virtualisation : virtualisation des systèmes, virtualisation des réseaux
- Environnements de cloud : visions utilisateur et fournisseur (focus sur le IaaS), illustration avec AWS et OpenStack
- Performances :
- critères de performance (latence, débit, espace, consommation énergie ...)
- scalabilité/elasticité/QoS/énergie/... via autonomic computing, …
- Services de Stockage (NoSQL, New-SQL, Key-value pairs)
- Traitement de données : batch (Hadoop, Spark, Cloudera, Cassandra, Neo4J), streaming (Storm et Spark)
- Projet d'intégration : développement et déploiement d'une application dans une infrastructure virtualisée pour une application big data (Spark, ...) avec étude de scalabilité
- Modèles et outils de programmation pour architectures hétérogènes :
- Modèles : message passing, task based, data parallel.
- Outils : MPI, OpenMP, Runtime, GPGPU (Cuda)
- Algorithmes scalables pour la haute performance, illustration en algèbre linéaire
- Théorie convergence de méthodes d’optimisation, avec gradient, sous gradient. Cas avec et sans contrainte.
- Mise en œuvre pratique dans le cadre de problèmes d’apprentissage
- L’apprentissage dans la physique : assimilation de données. Méthodes variationnelles et ensemblistes.
- Algorithmes stochastiques et problèmes de grande taille. Convergence probabiliste
- Graphes et optimisation combinatoire
- Heuristiques et Méta-Heuristiques
- Clustering de Graphes, Fouilles de Données
- TP d’application
- Algorithmes d’apprentissage: régression linéaire généralisée, k-NN, arbres de décision, forêts aléatoires, Support Vector Machine, boosting…
- Apprentissage profond
- Imputation de données manquantes
- Détection d’anomalies, de défaillances
- Application sur des jeux de données réelles en R et Python
- Préparation des données avec SparkSQL, SparkStream
- Accélération GPU pour apprentissage profond et boosting
- Cas d'usage traités avec R, Python (Scikit-learn) et SparML (ou Mllib). Par exemple :
- Recommandation
- Fouille de textes
- Reconnaissance d'activités humaines (objets connectés)…
- Analyse d'images et de langage naturel par apprentissage profond (Keras et TensorFlow)
- Application bancaire
- Maintenance prédictive
- Traitement d’image
- Observation de la Terre
- Préparation et Visualisation de données
- Chaine de traitement Big Data
- Évaluation expérimentale
Les aspects éthiques, juridiques et déontologiques (confidentialité des données, biais et explicabilité des algorithmes, dependable IA), seront abordés au travers d’un cycle de conférences.
Le Projet transverse et Learning par étude de cas seront entièrement dispensées par des industriels.
StagesStage de 6 mois en entreprise ou alternanceAvez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Mastère Spécialisé Valorisation des Données Massives