Mastère spécialisé Valorisation des données massives
Mastère spécialisé
À Toulouse
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Spécialisation supérieure des données massives
-
Typologie
Mastère spécialisé
-
Lieu
Toulouse
-
Durée
1 An
-
Stages en entreprise
Oui
Vous recherchez une spécialisation en sciences des données massives et souhaiteriez évoluer professionnellement dans le monde de l`informatique?
L’originalité de la formation est d’adresser un spectre large de compétences en informatique, en science des données et en optimisation.
Métiers visés:
Data engineer, data manager, chef de projet, responsable de contrôle qualité.
Précisions importantes
Modalité Formation initiale, VAE
Pôle Emploi: Formation éligible au financement Pôle Emploi
Les sites et dates disponibles
Lieu
Date de début
Date de début
À propos de cette formation
A partir de Bac +4 en Mathématiques appliquées ou informatique avec trois années d’expérience dans le domaine
Les Avis
Les matières
- Intelligence artificielle
- Informatique décisionnelle
- Science des données
- Virtualisation systèmes et réseau
- Plateformes pour le big data
- Big data
- Algorithmes d'optimisation numérique
- Valorisation des données
- Le Calcul Haute Performance
- Apprentissage machine
- Valorisation des données massives
Professeurs
Béatrice LAURENT
Professeur
Serge GRATTON
Professeur
Le programme
- Mise à niveau en Statistique
-
- Analyse en composantes principales, Modèle linéaire généralisé (régression linéaire, régression logistique)
- Classification non supervisée (Analyse Factorielle Discriminante, Approche hiérarchique, mélange gaussien, k-means)
- Introduction à R ou à Python
- Mise à niveau en Informatique
- Architecture d’un calculateur, système d’exploitation et réseaux
- Algorithmique, structures de données et complexité
- Introduction à la programmation orientée objet
- Bases de données
- Concepts et technologies de virtualisation : virtualisation des systèmes, virtualisation des réseaux
- Environnements de cloud : visions utilisateur et fournisseur (focus sur le IaaS), illustration avec AWS et OpenStack
- Performances :
- critères de performance (latence, débit, espace, consommation énergie ...)
- scalabilité/elasticité/QoS/énergie/... via autonomic computing, …
- Services de Stockage (NoSQL, New-SQL, Key-value pairs)
- Traitement de données : batch (Hadoop, Spark, Cloudera, Cassandra, Neo4J), streaming (Storm et Spark)
- Projet d'intégration : développement et déploiement d'une application dans une infrastructure virtualisée pour une application big data (Spark, ...) avec étude de scalabilité
- Modèles et outils de programmation pour architectures hétérogènes :
- Modèles : message passing, task based, data parallel.
- Outils : MPI, OpenMP, Runtime, GPGPU (Cuda)
- Algorithmes scalables pour la haute performance, illustration en algèbre linéaire
- Théorie convergence de méthodes d’optimisation, avec gradient, sous gradient. Cas avec et sans contrainte.
- Mise en œuvre pratique dans le cadre de problèmes d’apprentissage
- L’apprentissage dans la physique : assimilation de données. Méthodes variationnelles et ensemblistes.
- Algorithmes stochastiques et problèmes de grande taille. Convergence probabiliste
- Graphes et optimisation combinatoire
- Heuristiques et Méta-Heuristiques
- Clustering de Graphes, Fouilles de Données
- TP d’application
- Algorithmes d’apprentissage: régression linéaire généralisée, k-NN, arbres de décision, forêts aléatoires, Support Vector Machine, boosting…
- Apprentissage profond
- Imputation de données manquantes
- Détection d’anomalies, de défaillances
- Application sur des jeux de données réelles en R et Python
- Préparation des données avec SparkSQL, SparkStream
- Accélération GPU pour apprentissage profond et boosting
- Cas d'usage traités avec R, Python (Scikit-learn) et SparML (ou Mllib). Par exemple :
- Recommandation
- Fouille de textes
- Reconnaissance d'activités humaines (objets connectés)…
- Analyse d'images et de langage naturel par apprentissage profond (Keras et TensorFlow)
- Application bancaire
- Maintenance prédictive
- Traitement d’image
- Observation de la Terre
- Préparation et Visualisation de données
- Chaine de traitement Big Data
- Évaluation expérimentale
Les aspects éthiques, juridiques et déontologiques (confidentialité des données, biais et explicabilité des algorithmes, dependable IA), seront abordés au travers d’un cycle de conférences.
Le Projet transverse et Learning par étude de cas seront entièrement dispensées par des industriels.
Stage de 6 mois en entreprise ou alternanceConsulter notre site:
http://forpro.insa-toulouse.fr/fr/formation-diplomante/mastere-specialise.html
Informations complémentaires
Avez-vous besoin d'un coach de formation?
Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.
Mastère spécialisé Valorisation des données massives