Mastère Spécialisé Valorisation des Données Massives

Mastère spécialisé

À Toulouse

Prix sur demande

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Description

  • Typologie

    Mastère spécialisé

  • Lieu

    Toulouse

  • Durée

    13 Mois

  • Dates de début

    Septembre

Intelligence Artificielle

Souhaitez-vous devenir expert dans le domaine de l’informatique et dans le traitement des bases de données massives? Emagister vous propose le Mastère spécialisé qui vous correspond à ce que vous recherchez!

Ce Mastère Spécialisé que vous propose Toulouse INP est centré sur le traitement et la valorisation de données massives, privilégiant une déclinaison pluridisciplinaire en informatique.

Grâce à cette formation vous aurez les compétences nécessaires vous permettant d’apprendre sur les sciences des données et conjuguant les apprentissages scientifiques et opérationnels via un apprentissage par projet et une implication forte d’entreprises partenaires.

Si vous souhaitez avoir plus de renseignements contactez Emagister.fr sans aucun engagement. Un spécialiste vous contactera pour vous informer sur la formation.

Précisions importantes

Modalité: Formation en alternance

Les sites et dates disponibles

Lieu

Date de début

Toulouse ((31) Haute-Garonne)
Voir plan
2, rue Charles Camichel , 31000

Date de début

SeptembreInscriptions ouvertes
Toulouse ((31) Haute-Garonne)
Voir plan
2, rue Charles Camichel , 31000

Date de début

Consulter

À propos de cette formation

Il s’agit de former des professionnels ayant à la fois des compétences pointues en informatique, en optimisation et en science des données pour la valorisation des gisements de données. La formation abordera les aspects techniques et légaux répondant ainsi aux attentes des métiers suivants : data scientist, data engineer, data manager, data analyst, chef de projet, ingénieur en informatique décisionnelle, responsable de contrôle qualité. L’originalité de la formation est d’adresser un spectre large de compétences en informatique, en science des données et en optimisation.

Ce mastère spécialisé s’adresse aux titulaires d’un diplôme d’ingénieur ou d’un master ou équivalent en mathématiques ou informatique. La formation sera également proposée en contrat de professionnalisation.

Bac + 5 en mathématiques ou informatique. et par dérogation à des : - Bac+4 avec 3 années d'expérience professionnelle - Bac+2 avec 5 à 10 années d'expérience professionnelle après validation des acquis professionnels (VAP)

Mastère Spécialisé

Questions / Réponses

Posez une question et d'autres utilisateurs vous répondront

À qui souhaitez-vous addresser votre question?

Nous ne publierons que votre nom et votre question

Les Avis

Les exploits du centre

Ce centre a démontré ses qualités sur Emagister
12 ans avec Emagister

Les matières

  • Réseau informatique
  • Analyse de résultats
  • Statistique
  • Data mining
  • Intelligence artificielle
  • Algorithmes
  • R&D
  • Python
  • Programmation
  • Machine Learning
  • Virtualisation
  • Big data
  • Données
  • Deep learning
  • Calcul haute performance
  • Message passing
  • Task based
  • Data parallel
  • MPI
  • OpenMP
  • Runtime

Professeurs

Enseignant Chercheur

Enseignant Chercheur

Professeur Emerite

Le programme


Programme du MS VALDOMUE mise à niveau:
  • Mise à niveau en Statistique
    • Analyse en composantes principales, Modèle linéaire généralisé (régression linéaire, régression logistique)
    • Classification non supervisée (Analyse Factorielle Discriminante, Approche hiérarchique, mélange gaussien, k-means)
    • Introduction à R ou à Python
  • Mise à niveau en Informatique
    • Architecture d’un calculateur, système d’exploitation et réseaux
    • Algorithmique, structures de données et complexité
    • Introduction à la programmation orientée objet
    • Bases de données
Infrastructures système et réseau virtualisées pour le big data
  • Concepts et technologies de virtualisation : virtualisation des systèmes, virtualisation des réseaux
  • Environnements de cloud : visions utilisateur et fournisseur (focus sur le IaaS), illustration avec AWS et OpenStack
  • Performances :
    • critères de performance (latence, débit, espace, consommation énergie ...)
    • scalabilité/elasticité/QoS/énergie/... via autonomic computing, …
Plateformes Middleware pour le big data
  • Services de Stockage (NoSQL, New-SQL, Key-value pairs)
  • Traitement de données : batch (Hadoop, Spark, Cloudera, Cassandra, Neo4J), streaming (Storm et Spark)
  • Projet d'intégration : développement et déploiement d'une application dans une infrastructure virtualisée pour une application big data (Spark, ...) avec étude de scalabilité
Calcul haute performance et applications
  • Modèles et outils de programmation pour architectures hétérogènes :
    • Modèles : message passing, task based, data parallel.
    • Outils : MPI, OpenMP, Runtime, GPGPU (Cuda)
  • Algorithmes scalables pour la haute performance, illustration en algèbre linéaire
Algorithmes d’optimisation numérique pour l’apprentissage
  • Théorie convergence de méthodes d’optimisation, avec gradient, sous gradient. Cas avec et sans contrainte.
  • Mise en œuvre pratique dans le cadre de problèmes d’apprentissage
  • L’apprentissage dans la physique : assimilation de données. Méthodes variationnelles et ensemblistes.
  • Algorithmes stochastiques et problèmes de grande taille. Convergence probabiliste
Optimisation Combinatoire et Apprentissage
  • Graphes et optimisation combinatoire
  • Heuristiques et Méta-Heuristiques
  • Clustering de Graphes, Fouilles de Données
  • TP d’application
Apprentissage machine
  • Algorithmes d’apprentissage: régression linéaire généralisée, k-NN, arbres de décision, forêts aléatoires, Support Vector Machine, boosting…
  • Apprentissage profond
  • Imputation de données manquantes
  • Détection d’anomalies, de défaillances
  • Application sur des jeux de données réelles en R et Python
Technologies pour l’analyse de données massives
  • Préparation des données avec SparkSQL, SparkStream
  • Accélération GPU pour apprentissage profond et boosting
  • Cas d'usage traités avec R, Python (Scikit-learn) et SparML (ou Mllib). Par exemple :
    • Recommandation
    • Fouille de textes
    • Reconnaissance d'activités humaines (objets connectés)…
    • Analyse d'images et de langage naturel par apprentissage profond (Keras et TensorFlow)
Learning par étude de cas parmi :
  • Application bancaire
  • Maintenance prédictive
  • Traitement d’image
  • Observation de la Terre
Projet transverse
  • Préparation et Visualisation de données
  • Chaine de traitement Big Data
  • Évaluation expérimentale

Les aspects éthiques, juridiques et déontologiques (confidentialité des données, biais et explicabilité des algorithmes, dependable IA), seront abordés au travers d’un cycle de conférences.

Le Projet transverse et Learning par étude de cas seront entièrement dispensées par des industriels.

StagesStage de 6 mois en entreprise ou alternance

Appeler le centre

Avez-vous besoin d'un coach de formation?

Il vous aidera à comparer différents cours et à trouver la solution la plus abordable.

Mastère Spécialisé Valorisation des Données Massives

Prix sur demande