L'essentiel

Icon de la nomenclature

Nomenclature
du niveau de qualification

Niveau 7

Icon NSF

Code(s) NSF

326 : Informatique, traitement de l'information, réseaux de transmission

Icon formacode

Formacode(s)

31023 : Gestion données massives

11031 : Modèle mathématique

31028 : Intelligence artificielle

31094 : Gestion projet informatique

31006 : Sécurité informatique

Icon date

Date d’échéance
de l’enregistrement

31-01-2028

Niveau 7

326 : Informatique, traitement de l'information, réseaux de transmission

31023 : Gestion données massives

11031 : Modèle mathématique

31028 : Intelligence artificielle

31094 : Gestion projet informatique

31006 : Sécurité informatique

31-01-2028

Nom légal Siret Nom commercial Site internet
ASSOCIATION SUP DE VINCI (CFA LEONARD DE VINCI) 40955435900037 Sup de Vinci https://www.supdevinci.fr/

Objectifs et contexte de la certification :

Qualifiée d'or noir du XXIème siècle,  la data évolue de façon exponentielle, au travers des collectes, analyses et exploitations qu'elle permet. C'est dans ce contexte d'organisations devenant 'data centric' que cette certification est orientée. Elle a pour objectif de permettre une employabilité durable sur le marché du travail avec des compétences attestées relatives aux besoins actuels et à venir en termes d'ingénierie de données massives ainsi que d'intelligence artificielle.

Activités visées :

Pilotage de la veille et de l’innovation

Analyse de la demande du client interne / externe, et de son environnement SI

Définition d’une stratégie dans le cadre d’un projet en ingénierie de données massives et/ou IA

Participation au déploiement commercial des services numériques et fidélisation de la relation client

Cadrage technique et méthodologique d’un projet en ingénierie de données massives et/ou IA

Evaluation de la performance d’un projet en ingénierie de données massives et/ou IA

Management d’équipe dans le cadre d’un projet en ingénierie de données massives et/ou IA

Implémentation de la gouvernance des SI 

Gestion des risques dans le cadre d’un projet en ingénierie de données massives et/ou IA

Garantie de la conformité dans le cadre d’un projet en ingénierie de données massives et/ou IA

Conception d'architectures de stockage et de traitement avancées

Administration et sécurisation des infrastructures de données

Déploiement et optimisation des solutions cloud

Collecte, préparation et gestion de données massives pour l'IA

Développement et optimisation de modèles d'IA avancés

Analyse avancée et visualisation de données pour la prise de décisions

Compétences attestées :

Développer un dispositif de veille basé sur un process structuré afin d’être force de proposition et guider les choix du client dans l’utilisation et l’évolution des solutions, standards et règlementations data liés aux systèmes d’information.

Manager l’innovation, dans ses dimensions technologique, organisationnelle et économique, via des outils de conception et prototypage, afin de piloter la construction et l’implémentation de solutions SI innovantes sur le long terme.

Identifier les attentes et besoins utilisateurs et contraintes du client final et de la DSI, dans leur temporalité actuelle et prévisionnelle, dans le but de concevoir une solution data et IA adaptée aux exigences métier.

Analyser les bases de données au sein des SI de l’organisation étudiée, depuis leur collecte jusqu'à leur stockage et utilisation, en examinant le document de conception technique, afin de s’en servir de base pour l’implémentation technique du projet.

Diagnostiquer la problématique, via une étude contextualisée de l’environnement interne et externe du client, afin de garantir que toutes les composantes du système respectent les exigences fonctionnelles, les normes de sécurité et les bonnes pratiques d'architecture, tout en assurant la scalabilité et la performance des solutions déployées.

Définir une stratégie data et/ou IA et un plan d’action adaptés aux enjeux du client ainsi qu’à son architecture data, sur la base des spécifications fonctionnelles, en collaboration avec l’équipe technique informatique du client, en tenant compte des attentes éthiques, réglementaires et sociétales, dans l’optique d’améliorer le niveau de service à l’entreprise.

Déployer une approche Green IT et Low-tech, en identifiant les technologies durables et promouvant des pratiques respectueuses de l'environnement, en encourageant des comportements écoresponsables au sein de l'organisation, en vue de contribuer au développement d’une activité économique durable.

Présenter la solution informatique proposée, en utilisant des techniques de communication et de négociation, afin de convaincre le client que le dispositif choisi lui permettra d'atteindre ses objectifs.

Participer au développement de la relation client, par le biais de techniques commerciales et développement de process organisationnels, en identifiant les possibles opportunités gagnant gagnant pour les clients et sa propre organisation dans le but de viser la satisfaction et la fidélisation du client.

Rédiger les spécifications techniques, à partir des besoins identifiés et en correspondance avec les exigences fonctionnelles ainsi que les contraintes du projet, afin de définir le périmètre de réalisation du projet data et/ou IA.

Assurer la conception méthodologique d’un projet en ingénierie de données massives, à partir d’un besoin identifié, éventuellement au travers de la participation à l’élaboration / la réponse à un appel d’offres, via une méthodologie de projet informatique, dans l’optique d’optimiser sa réussite en fonction des ressources allouées ainsi que dans une démarche numérique responsable et conforme à la règlementation en vigueur.

Planifier le projet, en déterminant les ressources à allouer, afin de garantir l’atteinte des objectifs fixés.

Décrire la solution informatique et ses fonctionnalités, la structure des bases de données et le schéma général de la sécurité de façon organisé et adapté aux différentes étapes du projet afin de produire une documentation adaptée au suivi du projet et à la maintenance de l’outil produit.

Contrôler et mesurer l’avancement du projet, en termes de coûts, délais, qualité et RSE, au travers d’indicateurs de mesure de la performance, dans l’optique d’obtenir une vision complète de l’avancement du projet / de l’utilisation des ressources en conformité avec le cahier des charges.

Estimer et suivre les coûts tout au long du cycle de vie du projet de développement informatique, en employant des techniques de gestion budgétaire, en analysant le retour sur investissement, afin de garantir sa faisabilité ainsi que sa viabilité économique.

Conduire et superviser des collaborations professionnelles, en adoptant des méthodes et techniques de management s’inscrivant dans une visée collaborative et inclusive, afin de développer les compétences individuelles et collectives, et inscrire le fonctionnement du groupe supervisé dans une démarche d’amélioration continue.

Mobiliser l’ensemble des parties prenantes, en valorisant le sens des actions menées dans les projets de transformation, au travers de la capitalisation des bonnes pratiques et de situations de travail favorisant l’intelligence collective, dans une logique de génération de valeur à différentes strates, aux niveaux micro, méso et macro.

Développer un réseau responsable de partenaires, en intégrant les dimensions de viabilité, équitabilité et durabilité dans la collaboration, afin de pérenniser l’activité.

Élaborer ou réviser ou réviser un Plan de Gouvernance des Données, en définissant des règles et bonnes pratiques spécifiques à la gestion des données, en conformité avec le cadre légal et règlementaire en vigueur, dans le but de contribuer à la protection globale des actifs numériques de l'entreprise tout en assurant leur utilisation optimale.

Rédiger un Plan de Reprise d'Activité, au travers d’une démarche d’élaboration, afin de garantir la résilience des services critiques.

Evaluer tous les risques potentiels associés à la manipulation de grandes quantités de données, en collaboration avec les data scientists, les ingénieurs de données, les analystes de sécurité, et les parties prenantes du projet afin d’appréhender les risques possibles, tels que la perte de données, les fuites de données, les erreurs de traitement des données, ainsi que les défis liés à l'intégration des systèmes existants.

Vérifier l'application des normes, méthodes et référentiels de gestion des données, en suivant les directives de la gouvernance des systèmes d'information, afin d'assurer la conformité des systèmes de gestion des données avec les exigences réglementaires et opérationnelles en vigueur.

Concevoir et déployer des actions de sensibilisation ciblée sur la gestion des données visant à instaurer une culture de gouvernance des données proactive et à renforcer l'adhésion des utilisateurs finaux aux meilleures pratiques de gestion des données, dans le but d'améliorer la qualité et la sécurité des données au sein de l'organisation.

Modéliser des entrepôts de données à grande échelle, via des systèmes de gestion de base de données avancés afin de structurer et optimiser la gestion des données massives pour des analyses avancées en intelligence artificielle, permettant ainsi des traitements de données efficaces, évolutifs et sécurisés.

Concevoir et administrer des data lakes et data warehouses avec des technologies telles que Hadoop, MongoDB, et des systèmes d'ontologies comme RDF et OWL, afin de centraliser, structurer, et rendre accessible un large éventail de données hétérogènes, faciliter leur interopérabilité et exploitation pour des analyses avancées.

Gérer la scalabilité et la performance des architectures de stockage, avec une optimisation des requêtes et des processus ETL, afin d'assurer un traitement rapide et efficace des volumes de données croissants, minimiser les temps de latence, améliorer la qualité et l'intégrité des données, et permettre une analyse en temps réel pour des prises de décision plus éclairées et stratégiques au sein de l'organisation.

Gérer l'administration avancée des bases de données en utilisant des outils spécialisés pour des environnements de production, afin de garantir la disponibilité, la performance et l'intégrité des données tout en facilitant la gestion et le suivi des bases de données à grande échelle.

Mettre en œuvre des pipelines de données sécurisés et optimiser des flux de données en temps réel, avec des technologies de traitement de données en temps réel, afin de permettre la prise de décisions basées sur des données actualisées.

Sécuriser les infrastructures de données, conformément aux normes ISO 27018 et autres standards de l'industrie, afin de protéger les données sensibles contre les menaces, et maintenir la confiance des utilisateurs en la robustesse des systèmes de gestion des données.

Déployer et optimiser des infrastructures sur Amazon AWS, Google Cloud ou Azure, incluant la gestion de clusters de calcul et le stockage distribué, afin d'assurer une scalabilité dynamique, une performance accrue, et une gestion efficace des ressources pour répondre aux besoins variés des applications et des pics de charges de travail.

Concevoir et optimiser des pipelines de données dans le cloud, en utilisant AWS Data Pipeline, Azure Data Factory, et autres outils similaires, afin d'automatiser l'ingestion, la transformation et la distribution des données, tout en assurant la fiabilité et la rapidité des processus de gestion des données.

Garantir la continuité des activités dans des environnements cloud complexes, afin de garantir la résilience des systèmes, minimiser les interruptions de service, et assurer la disponibilité des données et des applications en cas d'incident majeur.

Réaliser le crawling  et le scraping  de données à grande échelle, via des API avancées et des bibliothèques, afin de collecter des données massives de manière automatisée et efficace, facilitant ainsi les analyses et l'entraînement des modèles d'intelligence artificielle.

Assurer le nettoyage, la transformation et la réduction de la dimensionnalité des datasets, en utilisant des langages et outils comme Python, R, et TensorFlow, afin d'améliorer la qualité des données, optimiser les performances des modèles d'IA, et faciliter l'analyse à grande échelle.

Pré-traiter des données non structurées, notamment textuelles, avec des outils de traitement du langage naturel, afin d’optimiser des modèles d'apprentissage automatique.

Concevoir des modèles d'apprentissage profond en utilisant des frameworks, et les déployer dans le cloud, dans le but de permettre une mise à l'échelle flexible des solutions d'IA.

Optimiser les modèles à travers des techniques d' optimisation des hyperparamètres, de régularisation, et de compression de modèles, afin d'améliorer leur performance, réduire la consommation de ressources, et faciliter leur déploiement à grande échelle dans des environnements de production.

Intégrer les modèles d'IA dans des pipelines de production, en assurant leur robustesse, leur scalabilité, et leur conformité avec les standards d'entreprise, afin de garantir des déploiements continus et fiables, ainsi qu'une maintenance efficace des solutions d'IA et data en production.

Effectuer l’analyse exploratoire des données, avec des outils avancés, dans l’optique d’identifier des tendances, des patterns, et des anomalies dans des datasets volumineux.

Elaborer des visualisations interactives et dynamiques, utilisant des outils professionnels et des bibliothèques de visualisation pour des audiences techniques et non techniques, afin de synthétiser les données.

Concevoir des tableaux de bord intégrés et automatiser des rapports pour la surveillance en temps réel des KPIs stratégiques afin d’anticiper les besoins futurs grâce à une visibilité continue et précise des métriques essentielles de l'entreprise.

Modalités d'évaluation :

Par la formation : Mises en situation professionnelle reconstituées et réelles et soutenance orale

Par la VAE : Dossier de validation et soutenance orale

RNCP40167BC01 - Définir la stratégie du projet en ingénierie de données massives et/ou IA

Liste de compétences Modalités d'évaluation

Développer un dispositif de veille basé sur un process structuré afin d’être force de proposition et guider les choix du client dans l’utilisation et l’évolution des solutions, standards et règlementations data liés aux systèmes d’information (SI)

Manager l’innovation, dans ses dimensions technologique, organisationnelle et économique, via des outils de conception et prototypage, afin de piloter la construction et l’implémentation de solutions SI innovantes sur le long terme 

Identifier les attentes et besoins utilisateurs et contraintes du client final et de la DSI , dans leur temporalité actuelle et prévisionnelle, dans le but de concevoir une solution data et IA adaptée aux exigences métier

Analyser les bases de données au sein des SI de l’organisation étudiée, depuis leur collecte jusqu'à leur stockage et utilisation, en examinant le document de conception technique, afin de s’en servir de base pour l’implémentation technique du projet

Diagnostiquer la problématique, via une étude contextualisée de l’environnement interne et externe du client, afin garantir que toutes les composantes du système respectent les exigences fonctionnelles, les normes de sécurité et les bonnes pratiques d'architecture, tout en assurant la scalabilité et la performance des solutions déployées

Définir une stratégie data et/ou IA et un plan d’action adaptés aux enjeux du client ainsi qu’à son architecture data, sur la base des spécifications fonctionnelles, en collaboration avec l’équipe technique informatique du client, en tenant compte des attentes éthiques, réglementaires et sociétales, dans l’optique d’améliorer le niveau de service à l’entreprise

Déployer une approche Green IT et Low-tech, en identifiant les technologies durables et promouvant des pratiques respectueuses de l'environnement, en encourageant des comportements écoresponsables au sein de l'organisation, en vue de contribuer au développement d’une activité économique durable

Présenter la solution informatique proposée, en utilisant des techniques de communication et de négociation, afin de convaincre le client que le dispositif choisi lui permettra d'atteindre ses objectifs

Participer au développement de la relation client, par le biais de techniques commerciales et développement de process organisationnels, en identifiant les possibles opportunités gagnant-gagnant pour les clients et sa propre organisation dans le but de viser la satisfaction et la fidélisation du client

2 mises en situations professionnelles :

  • Evaluation 1 : Mise en situation professionnelle reconstituée ou réelle - Dossier écrit, en individuel portant sur la définition d’un projet en ingénierie de données massives et/ou IA
  • Evaluation 2 : Mise en situation professionnelle reconstituée - Présentation orale, en individuel portant sur le référentiel de compétences du bloc de manière générale et la production écrite en particulier

RNCP40167BC02 - Manager un projet en ingénierie de données massives et/ou IA

Liste de compétences Modalités d'évaluation

Rédiger les spécifications techniques, à partir des besoins identifiés et en correspondance avec les exigences fonctionnelles ainsi que les contraintes du projet, afin de définir le périmètre de réalisation du projet data et/ou IA

Assurer la conception méthodologique d’un projet en ingénierie de données massives, à partir d’un besoin identifié, éventuellement au travers de la participation à l’élaboration / la réponse à un appel d’offres, via une méthodologie de projet informatique, dans l’optique d’optimiser sa réussite en fonction des ressources allouées ainsi que dans une démarche numérique responsable et conforme à la règlementation en vigueur

Planifier le projet, en déterminant les ressources (humaines, matérielles, techniques et financières) à allouer, afin de garantir l’atteinte des objectifs fixés

Décrire la solution informatique et ses fonctionnalités (user stories), la structure des bases de données et le schéma général de la sécurité de façon organisé et adapté aux différentes étapes du projet afin de produire une documentation adaptée au suivi du projet et à la maintenance de l’outil produit 

Contrôler et mesurer l’avancement du projet, en termes de coûts, délais, qualité et RSE,  au travers d’indicateurs de mesure de la performance , dans l’optique d’obtenir une vision complète de l’avancement du projet / de l’utilisation des ressources en conformité avec le cahier des charges

Estimer et suivre les coûts tout au long du cycle de vie du projet de développement informatique, en employant des techniques de gestion budgétaire, en analysant le retour sur investissement, afin de garantir sa faisabilité ainsi que sa viabilité économique

Conduire et superviser des collaborations professionnelles, en adoptant des méthodes et techniques de management s’inscrivant dans une visée collaborative et inclusive, afin de développer les compétences individuelles et collectives, et inscrire le fonctionnement du groupe supervisé dans une démarche d’amélioration continue

Mobiliser l’ensemble des parties prenantes, en valorisant le sens des actions menées dans les projets de transformation, au travers de la capitalisation des bonnes pratiques et de situations de travail favorisant l’intelligence collective, dans une logique de génération de valeur à différentes strates, aux niveaux micro, méso et macro

Développer un réseau responsable de partenaires, en intégrant les dimensions de viabilité, équitabilité et durabilité dans la collaboration, afin de pérenniser l’activité

2 mises en situations professionnelles :

  • Evaluation 1 : Mise en situation professionnelle reconstituée ou réelle - Dossier écrit, en individuel portant sur le management de projet en ingénierie de données massives et/ou IA
  • Evaluation 2 : Mise en situation professionnelle reconstituée - Présentation orale, en individuel portant sur le référentiel de compétences du bloc de manière générale et la production écrite en particulier

RNCP40167BC03 - Assurer la gouvernance, gestion des risques et de la conformité d’un projet en ingénierie de données massives et IA

Liste de compétences Modalités d'évaluation

Élaborer ou réviser ou réviser un Plan de Gouvernance des Données (PGD), en définissant des règles et bonnes pratiques spécifiques à la gestion des données, en conformité avec le cadre légal et règlementaire en vigueur, dans le but de contribuer à la protection globale des actifs numériques de l'entreprise tout en assurant leur utilisation optimale

Rédiger un Plan de Reprise d'Activité (PRA), au travers d’une démarche d’élaboration, afin de garantir la résilience des services critiques

Evaluer tous les risques potentiels associés à la manipulation de grandes quantités de données, en collaboration avec les data scientists, les ingénieurs de données, les analystes de sécurité, et les parties prenantes du projet afin d’appréhender les risques possibles, tels que la perte de données, les fuites de données, les erreurs de traitement des données, ainsi que les défis liés à l'intégration des systèmes existants

Vérifier l'application des normes, méthodes et référentiels de gestion des données, en suivant les directives de la gouvernance des systèmes d'information, afin d'assurer la conformité des systèmes de gestion des données avec les exigences réglementaires et opérationnelles en vigueur

Concevoir et déployer des actions de sensibilisation ciblée sur la gestion des données visant à instaurer une culture de gouvernance des données proactive et à renforcer l'adhésion des utilisateurs finaux aux meilleures pratiques de gestion des données, dans le but d'améliorer la qualité et la sécurité des données au sein de l'organisation

2 mises en situations professionnelles :

  • Evaluation 1 : Mise en situation professionnelle reconstituée ou réelle - Dossier écrit, en individuel portant sur l’implémentation de la gouvernance et la gestion des risques / de la conformité sur un projet en ingénierie de données massives et/ou IA
  • Evaluation 2 : Mise en situation professionnelle reconstituée - Présentation orale, en individuel portant sur le référentiel de compétences du bloc de manière générale et la production écrite en particulier

RNCP40167BC04 - Concevoir et déployer des infrastructures de données

Liste de compétences Modalités d'évaluation

Modéliser des entrepôts de données à grande échelle, via des systèmes de gestion de base de données (SGBD) avancés (Oracle, MySQL, PostgreSQL), afin de structurer et optimiser la gestion des données massives pour des analyses avancées en intelligence artificielle, permettant ainsi des traitements de données efficaces, évolutifs et sécurisés 

Concevoir et administrer des data lakes  et data warehouses  avec des technologies telles que Hadoop, MongoDB, et des systèmes d'ontologies comme RDF et OWL, afin de centraliser, structurer, et rendre accessible un large éventail de données hétérogènes, faciliter leur interopérabilité et exploitation pour des analyses avancées

Gérer la scalabilité et la performance des architectures de stockage, avec une optimisation des requêtes et des processus ETL , afin d'assurer un traitement rapide et efficace des volumes de données croissants, minimiser les temps de latence, améliorer la qualité et l'intégrité des données, et permettre une analyse en temps réel pour des prises de décision plus éclairées et stratégiques au sein de l'organisation

Gérer l'administration avancée des bases de données en utilisant des outils spécialisés (SQL Server Management Studio, pgAdmin) pour des environnements de production, afin de garantir la disponibilité, la performance et l'intégrité des données tout en facilitant la gestion et le suivi des bases de données à grande échelle

Mettre en œuvre des pipelines de données sécurisés et optimiser des flux de données en temps réel, avec des technologies de traitement de données en temps réel, afin de permettre la prise de décisions basées sur des données actualisées

Sécuriser les infrastructures de données, conformément aux normes ISO 27018 et autres standards de l'industrie, afin de protéger les données sensibles contre les menaces, et maintenir la confiance des utilisateurs en la robustesse des systèmes de gestion des données

Déployer et optimiser des infrastructures sur Amazon AWS, Google Cloud ou Azure, incluant la gestion de clusters de calcul (EC2, GCP Compute Engine) et le stockage distribué (S3, BigQuery), afin d'assurer une scalabilité dynamique, une performance accrue, et une gestion efficace des ressources pour répondre aux besoins variés des applications et des pics de charges de travail

Concevoir et optimiser des pipelines de données dans le cloud, en utilisant AWS Data Pipeline, Azure Data Factory, et autres outils similaires, afin d'automatiser l'ingestion, la transformation et la distribution des données, tout en assurant la fiabilité et la rapidité des processus de gestion des données

Garantir la continuité des activités dans des environnements cloud complexes, afin de garantir la résilience des systèmes, minimiser les interruptions de service, et assurer la disponibilité des données et des applications en cas d'incident majeur

2 mises en situations professionnelles :

  • Evaluation 1: Mise en situation professionnelle reconstituée ou réelle - Dossier écrit, en individuel portant sur la conception et le déploiement d’infrastructures de données
  • Evaluation 2 : Mise en situation professionnelle reconstituée - Présentation orale, en individuel portant sur le référentiel de compétences du bloc de manière générale et la production écrite en particulier

RNCP40167BC05 - Développer des solutions data et IA

Liste de compétences Modalités d'évaluation

Réaliser le crawling  et le scraping  de données à grande échelle, via des API avancées et des bibliothèques, afin de collecter des données massives de manière automatisée et efficace, facilitant ainsi les analyses et l'entraînement des modèles d'intelligence artificielle

Assurer le nettoyage, la transformation et la réduction de la dimensionnalité des datasets , en utilisant des langages et outils comme Python, R, et TensorFlow, afin d'améliorer la qualité des données, optimiser les performances des modèles d'IA, et faciliter l'analyse à grande échelle

Pré-traiter des données non structurées, notamment textuelles, avec des outils de traitement du langage naturel, afin d’optimiser des modèles d'apprentissage automatique

Concevoir des modèles d'apprentissage profond (deep learning) en utilisant des frameworks, et les déployer dans le cloud, dans le but de permettre une mise à l'échelle flexible des solutions d'IA

Optimiser les modèles à travers des techniques d' optimisation des hyperparamètres (hyperparameter tuning), de régularisation, et de compression de modèles, afin d'améliorer leur performance, réduire la consommation de ressources, et faciliter leur déploiement à grande échelle dans des environnements de production

Intégrer les modèles d'IA dans des pipelines de production, en assurant leur robustesse, leur scalabilité, et leur conformité avec les standards d'entreprise, afin de garantir des déploiements continus et fiables, ainsi qu'une maintenance efficace des solutions d'IA et data en production

Effectuer l’analyse exploratoire des données, avec des outils avancés, dans l’optique d’identifier des tendances, des patterns, et des anomalies dans des datasets volumineux

Elaborer des visualisations interactives et dynamiques, utilisant des outils professionnels (Tableau, Power BI, D3.js) et des bibliothèques de visualisation (Matplotlib, Seaborn) pour des audiences techniques et non techniques, afin de synthétiser les données

Concevoir des tableaux de bord (dashboards) intégrés et automatiser des rapports pour la surveillance en temps réel des KPIs stratégiques afin d’anticiper les besoins futurs grâce à une visibilité continue et précise des métriques essentielles de l'entreprise

2 mises en situations professionnelles :

  • Evaluation 1 : Mise en situation professionnelle reconstituée ou réelle - Dossier écrit, en individuel portant sur le développement des solutions data et IA
  • Evaluation 2 : Mise en situation professionnelle reconstituée - Présentation orale, en individuel portant sur le référentiel de compétences du bloc de manière générale et la production écrite en particulier

Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :

Par la formation, et en fonction du projet du candidat : validation de tout ou partie des blocs de compétences, par leurs modalités d’évaluations spécifiques   

Pour l'obtention totale de la certification : validation de l'évaluation complémentaire exposée dans le Règlement spécifique de certification

Par la VAE, et en fonction du projet du candidat : validation de tout ou partie des blocs de compétences par un dossier de validation et soutenance orale devant un jury, relative au périmètre du ou des blocs de compétences visés.

L’accès à la certification professionnelle est également possible par la mise en œuvre d’un parcours mixte (formation + VAE).     

Un ou plusieurs blocs de compétences peuvent avoir été acquis par le biais de correspondances.

Secteurs d’activités :

L’ expert en ingénierie massives de données et intelligence artificielle (IA) travaille majoritairement dans une société de services et plus précisément dans les activités informatiques.

Type d'emplois accessibles :

Architecte de la donnée (big data architect) ; Chef de projet data/ IA ; Consultant data / IA ; Expert data /IA ; Ingénieur data (big data engineer) ; Ingénieur en développement big data 

Code(s) ROME :

  • M1802 - Expertise et support en systèmes d''information
  • M1803 - Direction des systèmes d''information
  • M1805 - Études et développement informatique
  • M1806 - Conseil et maîtrise d''ouvrage en systèmes d''information

Références juridiques des règlementations d’activité :

L’emploi-type cible n’est pas réglementé en lui-même, mais il convient de tenir compte du cadre légal et réglementaire dans lequel les activités s’inscrivent, notamment par rapport aux normes, lois et directives suivantes : Règlement Général sur la Protection des Données, Loi Informatique et Libertés, Règlement sur la Gouvernance des Données (Data Governance Act), Proposition de Règlement sur les Données (Data Act), Loi pour la Confiance en l'Économie Numérique (LCEN, 2004), Directive européenne Network and Information System Security (NIS), Norme ISO/CEI 27002, Norme ISO 27005, Normes sur l’éco-conception des services numériques, Clarifying Lawful Overseas Use of Data Act (CLOUD Act, USA, 2018), Directive sur la Cybersécurité (Cybersecurity Act), Loi relative à l'économie circulaire et à la lutte contre le gaspillage (2020), Norme ISO/IEC 27701 

Le cas échant, prérequis à l’entrée en formation :

Être titulaire d’un diplôme, titre professionnel ou certification professionnelle de niveau 6

Ou être titulaire d’un diplôme, titre professionnel ou certification professionnelle de niveau 5, avec au moins 2 années d’expérience professionnelle dans le champ visé par la certification

Une dérogation peut être accordée par le jury de sélection qui aura à statuer sur le non-respect d’un des critères prérequis

Le cas échant, prérequis à la validation de la certification :

Par la voie de la formation : avoir suivi au moins 85% du parcours de formation

Pré-requis disctincts pour les blocs de compétences :

Non

Validité des composantes acquises :

Validité des composantes acquises
Voie d’accès à la certification Oui Non Composition des jurys Date de dernière modification
Après un parcours de formation sous statut d’élève ou d’étudiant X

Le jury est composé de 3 membres minimum dont 2 professionnels externes

-
En contrat d’apprentissage X

Le jury est composé de 3 membres minimum dont 2 professionnels externes

-
Après un parcours de formation continue X

Le jury est composé de 3 membres minimum dont 2 professionnels externes

-
En contrat de professionnalisation X

Le jury est composé de 3 membres minimum dont 2 professionnels externes

-
Par candidature individuelle X - -
Par expérience X

Conformément au décret n° 2024-332 du 10 avril 2024 relatif au jury et au congé de validation des acquis de l'expérience, le jury de certification pour l’obtention par voie de la VAE réunit au moins deux personnes, dont au moins une personne qualifiée au titre de la certification visée

-
Validité des composantes acquises
Oui Non
Inscrite au cadre de la Nouvelle Calédonie X
Inscrite au cadre de la Polynésie française X

Statistiques :

Statistiques
Année d'obtention de la certification Nombre de certifiés Nombre de certifiés à la suite d’un parcours vae Taux d'insertion global à 6 mois (en %) Taux d'insertion dans le métier visé à 6 mois (en %) Taux d'insertion dans le métier visé à 2 ans (en %)
2023 19 0 90 90 -
2022 9 0 90 90 -
2020 2 0 90 90 100
2019 2 0 90 90 100

Lien internet vers le descriptif de la certification :

https://www.supdevinci.fr/formations/mastere-specialisation-big-data/

Le certificateur n'habilite aucun organisme préparant à la certification

Référentiel d'activité, de compétences et d'évaluation :