L'essentiel
Nomenclature
du niveau de qualification
Niveau 6
Code(s) NSF
326 : Informatique, traitement de l'information, réseaux de transmission
114g : Mathématiques de l'informatique, mathématiques financières, statistique de la santé
Formacode(s)
11052 : Mathématiques appliquées
11036 : Statistique
31028 : Intelligence artificielle
Date d’échéance
de l’enregistrement
10-02-2026
Nom légal | Siret | Nom commercial | Site internet |
---|---|---|---|
JEDHA | 83872651100044 | JEDHA | https://jedha.co/ |
Objectifs et contexte de la certification :
La Science des Données (ou Data Science en anglais) est devenue au cours de ces dernières années un élément indispensable pour permettre aux entreprises d’innover et de se différencier, et l’Intelligence Artificielle un outil de performance indispensable. Les directions métiers tous secteurs confondus utilisent déjà ces dernières, et cette tendance est amenée à augmenter exponentiellement au cours des prochaines années. L’objectif visé de la certification de "Concepteur Développeur en Science des Données " est de devenir un spécialiste en science des données ayant la capacité d’avoir une vision globale des projets de Science de Données, capable de les concevoir et diriger dans leur ensemble comme d'intervenir à un point précis de ces derniers.
En effet, la certification confère au candidat les compétences pour exercer le métier : l'ensemble de ces compétences, décrites dans le référentiel, lui permet de créer des infrastructures de gestion de données robustes et adaptées, de les alimenter, de développer des algorithmes d’intelligence artificielle, de les mettre en production, mais aussi de collaborer avec les différentes équipes-métiers métier d'une organisation pour évaluer et adapter les besoins data. Il lui est donc possible de diriger des projets de gestion de données de bout-en-bout, d'en rendre compte, d'être force de proposition et de les adapter aux besoins de son environnement professionnel.
Le candidat certifié peut mettre en œuvre l'ensemble des compétences nécessaires pour être opérationnel rapidement.
Activités visées :
A1. Contruction d'une infrastructure de gestion de données adaptée à l'organisation
A2. Collecte de données
A3. Gestion d'entrepôts de données (Data Warehouse)
A4. Analyse exploratoire de données
A5. Visualisation et présentation de données
A6. Mise en place d'un algorithme d'apprentissage automatique
A7. Segmentation et réduction de base de données
A8. Optimisation des performances des algorithmes d'apprentissage automatique
A9. Mise en place d'un apprentissage automatique profond
A10. Optimisation des performances des algorithmes d'apprentissage automatique profond pour industrialisation
A11. Industrialisation d'algorithmes d'apprentissage automatique
A12. Production d'applications d'intelligence artificielle utilisables par toutes les équipes métier
A13. Définition d'une modélisation statistique qui permette de répondre aux problématiques des directions métiers
A14. Construction d'un système de gestion et de suivi de projet d'analyse et de gestion de données
A15. Direction de projets de gestion de données
Compétences attestées :
Bloc n°1 - Construction et alimentation d'une infrastructure de gestion de données
C1.1 - Concevoir une architecture de données robuste et adaptée en créant des lacs de données (Data Lake en anglais) et des entrepôts de données (Data Warehouse en anglais) afin de répondre aux besoins de stockage, d'utilisation, de sécurité et de protection de l'organisation définie par un cahier des charges
C1.2 - Intégrer la dimension de stockage et de calcul distribuée à l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS Redshift afin de l'adapter à des besoins de gestion de données massives (Big Data en anglais)
C1.3 - Collecter des données provenant de différentes sources (Web, Logiciels internes de type Sage / Excel ou externes de type Google Analytics) via des librairies de programmation de type Scrapy ou Beautifulsoup dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures.
C1.4 - Nettoyer et organiser les données dans l'entrepôt de données (Data Warehouse en anglais) en écrivant des processus d'extraction, transformation et chargements (ETL en anglais) afin de rendre ces données disponibles et compréhensibles pour les autres équipes métiers.
Bloc n°2 - Analyse exploratoire, descriptive et inférentielle de données
C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée.
C2.2 - Effectuer des analyses univariées et multivariées sur des bases de données structurées afin de préciser des relations entre plusieurs variables et d'établir des liens statistiques entre elles.
C2.3 - Optimiser les analyses statistiques grâce au traitement parallélisé via l'utilisation d'outils comme Spark pour accélérer le temps de calcul d'un ordinateur afin de pouvoir analyser des volumes de données massifs (Big Data)
C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles
Bloc n°3 - Analyse prédictive de données structurées par l'intelligence artificielle
C3.1 - Traiter des données structurées en créant un pipeline de traitement grâce à des librairies de programmation comme Scikit-Learn pour encoder, normaliser et découper des données afin de les rendre interprétables par un algorithme d'apprentissage automatique (Machine Learning en anglais)
C3.2 - Effectuer des analyses prédictives sur un jeu de données structurées grâce à des algorithmes d'apprentissage automatique supervisés adaptés afin d'automatiser des tâches liées aux résultats des prédictions de ces algorithmes
C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation
C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation
Bloc n°4 - Analyse prédictive de données non-structurées par l'intelligence artificielle
C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais)
C4.2 - Élaborer des réseaux de neurones adaptés (classiques, convolutifs ou recursifs) en superposant des couches neuronales via des librairies de programmation comme TensorFlow pour analyser des données non-structurées afin de détecter des signaux sur ces dernières
C4.3 - Créer un algorithme robuste et précis en configurant un réseau de neurones pré-entrainé profond afin de répondre à des problématiques de prédiction sur des volumes de données massifs
C4.4 - Créer des données non-structurées en élaborant des réseaux de neurones adverses afin de construire de nouvelles bases d'entrainement pour des applications d'intelligence artificielle
C4.5 - Évaluer la performance d'un algorithme d'apprentissage automatique profond en évaluant des indicateurs sur des données d'entrainement et de validation afin d'industrialiser son utilisation
Bloc n°5 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision
C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes
C5.2 - Créer une interface de programmation applicative grâce à des outil comme AWS sagemaker afin de donner un accès à échelle aux prédictions des algorithmes d'apprentissage automatique à l'ensemble des équipes métiers concernées
C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision
Bloc n°6 - Direction de projets de gestion de données
C6.1 - Traduire les enjeux métiers en problématiques mathématiques/data grâce à une compréhension des besoins propres à chaque projet data afin de pouvoir répondre aux objectifs de l'organisation
C6.2 - Maîtriser les technologies les plus récentes et adaptées du marché grâce à de la veille technologique et de la pratique constante pour développer une expertise afin d'être à même de proposer aux directions métiers les solutions les plus adaptées actuellement à une problématique et l'amélioration constante des process de gestion de données déjà en place
C6.3 - Définir un cahier des charges, un retroplanning et un budget afin de défendre et détailler aux directions métier un projet data répondant aux besoins de l'organisation
C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD
C6.5 - Transmettre aux directions-métiers le process d'extraction d'informations et d'analyse de données en le vulgarisant afin de soutenir la mise en place d'une stratégie et d'actions futures.
C6.6 - Diriger un projet de gestion de données, allant de sa conception à la mise en place de solutions, afin de le mener jusqu'à son terme, d'être la personne clé disposant de toutes les informations sur le projet à tout moment, et d'accompagner d'autres services de l'organisation dans l'ensemble des activités relatives à celui-ci
Modalités d'évaluation :
Evaluation par le jury de certification sur la base de mises en situation professionnelle : études de cas réels pour les blocs 1 à 5, conception et réalisation d'un projet data pour le bloc 6.
Bloc n°1 - Construction et alimentation d'une infrastructure de gestion de données
Type d'évaluation :Une étude de cas sur des données réelles
Thème d'évaluation : Construction d'une infrastructure cloud accueillant des données Big Data (collecte de données web, intégration des données dans un Data Lake, nettoyage et chargement des données dans une base de données type AWS Redshift par traitement parallélisé si nécessaire via la construction d'un processus ETL)
Contexte: En centre de formation ou à distance, étalé sur 10 heures.
Bloc n°2 - Analyse exploratoire, descriptive et inférentielle de données
Type d'évaluation : Deux études de cas sur des données réelles
Thème d'évaluation :
- Gestion de valeurs manquantes et aberrantes d'une base de données non-massives puis analyse pour déterminer et présenter des tendances par le biais de graphiques.
- Analyse d'une base de données massives déstructurées (Utilisation de Spark) adaptée à une problématique définie.
Contexte : En centre de formation ou à distance, étalé sur 20 heures.
Bloc n°3 - Analyse prédictive de données structurées par l'intelligence artificielle
Type d'évaluation : trois études de cas pratiques tirées de cas réels
Thème d'évaluation :
- Optimisation des processus marketing de qualification de prospect par le biais d'algorithmes d'apprentissage supervisés
- Optimisation d'algorithmes d'apprentissage automatique supervisé sur des bases de données déséquilibrées
- Localisation de zones de densité géographique par l'élaboration d'algorithmes d'apprentissage automatique non-supervisé
Contexte : En centre de formation ou à distance, étalé sur 30 heures.
Bloc n°4 - Analyse prédictive de données non-structurées par l'intelligence artificielle
Type d'évaluation : une étude de cas pratique sur des données non-structurées
Thème d'évaluation : Analyse de sentiment, par l'élaboration d'un algorithme permettant de déterminer le sentiment d'un utilisateur à l'égard d'un produit (avec possibilité de créer de la nouvelle donnée pour agrémenter la base).
Contexte : En centre de formation ou à distance, étalé sur 20 heures
Bloc n°5 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision
Type d'évaluation : Etude de cas pratique sur le déploiement d'un algorithme d'apprentissage automatique
Thème d'évaluation : Web dashboard construction et mise en production d'une application web d'intelligence artificielle
Contexte : En centre de formation ou à distance, étalé sur 10 heures.
Bloc n°6 - Direction de projets de gestion de données
Type d'évaluation :projet data conçu de A à Z.
Thème d'évaluation :Libre. Les apprenants peuvent préparer le projet data de leur choix. Celui-ci peut être personnel, développé par le candidat dans le cadre de son activité professionnelle, ou défini par une entreprise partenaire. Il fera l'objet d'une soutenance orale de 10 minutes suivie de 5 à 10 minutes de questions.
RNCP35288BC01 - Construction et alimentation d'une infrastructure de gestion de données
Liste de compétences | Modalités d'évaluation |
---|---|
C1.1 - Concevoir une architecture de données robuste et adaptée en créant des lacs de données (Data Lake en anglais) et des entrepôts de données (Data Warehouse en anglais) afin de répondre aux besoins de stockage, d'utilisation, de sécurité et de protection de l'organisation définie par un cahier des charges C1.2 - Intégrer la dimension de stockage et de calcul distribuée à l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS Redshift afin de l'adapter à des besoins de gestion de données massives (Big Data en anglais) C1.3 - Collecter des données provenant de différentes sources (Web, Logiciels internes de type Sage / Excel ou externes de type Google Analytics) via des librairies de programmation de type Scrapy ou Beautifulsoup dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures. C1.4 - Nettoyer et organiser les données dans l'entrepôt de données (Data Warehouse en anglais) en écrivant des processus d'extraction, transformation et chargements (ETL en anglais) afin de rendre ces données disponibles et compréhensibles pour les autres équipes métiers. |
Type d'évaluation : Une étude de cas sur des données réelles Thème d'évaluation : Construction d'une infrastructure Cloud accueillant des données Big Data |
RNCP35288BC02 - Analyse exploratoire, descriptive et inférentielle de données
Liste de compétences | Modalités d'évaluation |
---|---|
C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée. C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles. |
Type d'évaluation : Deux études de cas sur des données réelles |
RNCP35288BC03 - Analyse prédictive de données structurées par l'intelligence artificielle
Liste de compétences | Modalités d'évaluation |
---|---|
C3.1 - Traiter des données structurées en créant un pipeline de traitement grâce à des librairies de programmation comme Scikit-Learn pour encoder, normaliser et découper des données afin de les rendre interprétables par un algorithme d'apprentissage automatique (Machine Learning en anglais) C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation. C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation |
Type d'évaluation : trois études de cas pratiques tirées de cas réels |
RNCP35288BC04 - Analyse prédictive de données non-structurées par l'intelligence artificielle
Liste de compétences | Modalités d'évaluation |
---|---|
C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais) C4.5 - Évaluer la performance d'un algorithme d'apprentissage automatique profond en évaluant des indicateurs sur des données d'entrainement et de validation afin d'industrialiser son utilisation |
Type d'évaluation : une étude de cas pratique sur des données non-structurées |
RNCP35288BC05 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision
Liste de compétences | Modalités d'évaluation |
---|---|
C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision |
Type d'évaluation :Etude de cas pratique sur le déploiement d'un algorithme d'apprentissage automatique Thème d'évaluation : construction et mise en production d'une application web d'intelligence artificielle |
RNCP35288BC06 - Direction de projets de gestion de données
Liste de compétences | Modalités d'évaluation |
---|---|
C6.1 - Traduire les enjeux métiers en problématiques mathématiques/data grâce à une compréhension des besoins propres à chaque projet data afin de pouvoir répondre aux objectifs de l'organisation C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD C6.5 - Transmettre aux directions-métiers le process d'extraction d'informations et d'analyse de données en le vulgarisant afin de soutenir la mise en place d'une stratégie et d'actions futures. |
Type d'évaluation : projet data conçu de A à Z. |
Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :
La certification s'acquiert par capitalisation des blocs de compétences et par équivalence. La validation de la totalité des 6 blocs de compétences est obligatoire pour l'obtention de la certification.
Les candidats n’ayant validé que certains des 6 blocs de compétences du référentiel « Concepteur Développeur en Science des Données » se voient remettre un certificat de compétences attestant de la validation partielle de la certification professionnelle, et nommant les blocs concernés. La validation partielle d’un bloc n’est pas possible.
La certification est valable à vie. En cas de validation partielle des blocs, la durée de validité de chaque bloc de compétences est de 5 ans.
Secteurs d’activités :
Depuis l'émergence de l’Intelligence Artificielle et des Big Data, les Concepteurs Développeurs en Science des Données sont recrutés dans de différents et nombreux domaines (commercial, finance, santé, recherche, administration…), à des postes pouvant différer par leur niveau hiérarchique et leur niveau de technicité, et par une grandes variété d’organisations : dans l’industrie, par de grandes entreprises comme de jeunes start-up, dans le service public et l’administration, par des institutions scientifiques, des organisations médicales ou paramédicales et même des structures associatives. En effet, leur travail d'analyse peut facilement se retrouver à la base de l’élaboration de la stratégie générale d’une organisation.
Tous les secteurs d’activités utilisant de la donnée sont ainsi concernés et quel que soit la taille de l’entreprise. Le “Concepteur Développeur en Science des Données” pourra exercer son activité :
- Dans une entreprise de Services Numériques (ESN ou ex SSII) réalisant des prestations de science des données ou d’intelligence artificielle, en régie ou au forfait
- Dans l’ensemble des structures utilisatrices d’Intelligence Artificielle, possédant un service dédié à l’analyse de données et aux développements de ces IA, du secteur privé ou public, entreprises ou association (ex : Banque, Assurance, startups spécialisées dans l’Intelligence Artificielle, certains établissements de recherche ou de santé, etc)
- En tant qu’indépendant pour des missions de gestion de données, de conceptions ou mise en production d’algorithmes, ou de pilotage de projet Data.
- Dans des organismes de formation spécialisés dans l’Intelligence Artificielle.
Type d'emplois accessibles :
- Data Scientist
- Data Engineer
- Machine Learning Engineer
- Développeur Full-Stack Python (ou Software Engineer)
- Data Analyst (ou Data Miner)
- Business Analyst
- Consultant Intelligence Artificielle (ou Consultant Data)
- Product Manager Data (ou Product Owner ou chef de produit Data)
- Chef de Projet Data (ou Project Manager Data)
- Ingénieur d'études / Chargé d'études
- Ingénieur en Business Intelligence
- Directeur / Directrice de l'Organisation et des Systèmes d'Information -DOSI
- Attaché / Attachée d’études statistiques
Code(s) ROME :
- M1403 - Études et prospectives socio-économiques
- M1810 - Production et exploitation de systèmes d''information
- M1805 - Études et développement informatique
- M1803 - Direction des systèmes d''information
- M1806 - Conseil et maîtrise d''ouvrage en systèmes d''information
Références juridiques des règlementations d’activité :
L’ensemble du processus de conception et de développement d’algorithmes d’apprentissage automatique doit se dérouler dans le respect des réglementations en vigueur quant à l’utilisation de données personnelles (RGPD) et des critères définissant l’utilisation responsable des données.
Le règlement général sur la protection des données (RGPD, ou encore GDPR, de l'anglais General Data Protection Regulation) est le règlement de l'Union Européenne qui constitue le texte de référence en matière de protection des données à caractère personnel : il renforce la protection de ces données pour les individus, responsabilise les acteurs du traitement de ces données et augmente le pouvoir des autorités de régulation au sein de l'Union européenne. Il est entré en application dans l'ensemble des 28 États membres de l'Union européenne à compter du 25 mai 2018. Il met en place des principes nouveaux, dont les plus importants sont :
- Un consentement explicite et positif doit être donné par l’utilisateur. Il dispose également d’un droit à l’effacement de ses données personnelles dans les meilleurs délais et peut demander à recevoir l’ensemble des données personnelles détenues par l’entreprise le concernant.
- Le principe de protection des données dès la conception (Privacy by Design) impose aux organisations de prendre en compte les exigences relatives à la protection des données personnelles dès la conception des produits, services et systèmes exploitant ces données.
- La minimisation des données impose à l’organisation de ne collecter, traiter et stocker que les données nécessaires en vue de l’exécution de ses tâches.
- Les organisations publiques, traitant des données très sensibles ou de plus de 250 personnes ont l’obligation de nommer un délégué à la protection des données pour contrôler le respect du règlement, de conseiller le responsable des traitements sur son application et de faire office de point de contact avec l'autorité de contrôle, de répondre aux sollicitations de personnes qui souhaitent exercer leurs droits.
- L’ensemble des dispositions du RGPD s'appliquent aux organisations établies en dehors de l'UE qui traitent les données relatives aux activités des organisations de l'UE ou appartenant à des résidents de l'UE
L’utilisation responsable des données implique également de manière plus large un certain nombre de critères qui préviennent la création d’intelligences artificielles intrusives, pouvant porter atteinte à l’ordre public, inciter à la haine ou de manière plus générale promouvant ou permettant toute activité interdite par la loi ou allant à l’encontre de l’éthique. L’éthique des données est une problématique en perpétuelle évolution, mobilisant nombre de groupes de travail publics comme indépendants. Si le cadre actuel est défini par le RGPD, ces acteurs et groupes de travail essayent de créer des cadres pour faire en sorte que les évolutions permises en science des données bénéficient directement à l’intérêt général et pas uniquement à des acteurs privés. Ces cadres incluent par exemple le site d’open source de bases de données Kaggle ou la plateforme de travail Data for Good.
Le cas échant, prérequis à l’entrée en formation :
- Un niveau 5 dans un domaine scientifique et/ou économique. À l’international, un niveau équivalent est requis. Ce niveau sera justifié par le CV de l’apprenant.
- La réussite d’un test d’admission “coding challenge”, validant des compétences nécessaires scientifiques en mathématiques appliquées ainsi qu’en programmation python.
- La réussite d’un entretien préalable qui jugera:
- De la plus-value de l’acquisition des compétences décrites dans le référentiel "Concepteur Développeur en Science des Données " pour le projet professionnel
- De la pertinence et de la faisabilité de ce projet professionnel
- De la capacité du candidat à suivre la Formation dans les conditions définies au préalable (possibilité de suivre la formation en présentiel ou distanciel)
- Une expérience professionnelle adaptée sera valorisée pour l’admission dans la formation.
- Une pratique courante de l’anglais (niveau B2 en compréhension & expression écrite et B1 de compréhension & expression orale du référentiel européen CECRL) est requise.
- Dans certains cas, la réussite aux tests d’admission et à l’entretien pourront se substituer à un diplôme de niveau 5.
Le cas échant, prérequis à la validation de la certification :
Pré-requis disctincts pour les blocs de compétences :
Non
Validité des composantes acquises :
Voie d’accès à la certification | Oui | Non | Composition des jurys | Date de dernière modification |
---|---|---|---|---|
Après un parcours de formation sous statut d’élève ou d’étudiant | X |
Le jury de certification est composé de :
Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.). |
- | |
En contrat d’apprentissage | X |
Le jury de certification est composé de :
Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.). |
- | |
Après un parcours de formation continue | X |
Le jury de certification est composé de :
Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.). |
- | |
En contrat de professionnalisation | X |
Le jury de certification est composé de :
Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.). |
- | |
Par candidature individuelle | X | - | - | |
Par expérience | X |
Le dossier VAE est étudié directement par :
|
- |
Oui | Non | |
---|---|---|
Inscrite au cadre de la Nouvelle Calédonie | X | |
Inscrite au cadre de la Polynésie française | X |
Lien avec d’autres certifications professionnelles, certifications ou habilitations :
Oui
Certifications professionnelles, certifications ou habilitations en correspondance au niveau européen ou international :
La certification concepteur développeur en science des données a des équivalences partielles avec des titres enregistrées au RNCP et avec des diplômes à l'international. Cependant il y a des différences notables explicitées dans le tableau ci-dessous.
La certification a également des équivalences partielles avec des diplômes à l’étranger :
Université Catholique Louvain Master Ingénieur Civil en informatique option IA Belgique
Université de Mannheim Master in Data Science Allemagne
Université de Potsdam Master Data Science Allemagne
Université Technologique de Barcelone Master in Big Data Solutions Espagne
Université de Stanford Master of Data Science USA
Université de Rochester Master in Data Science USA
Université de Colombia Master in Data Science USA
Université de Californie à Berkley Master of Information and Data Science USA
Certifications professionnelles enregistrées au RNCP en correspondance :
Code de la fiche | Intitulé de la certification professionnelle reconnue en correspondance | Nature de la correspondance (totale, partielle) |
---|---|---|
RNCP34262 |
Expert en sciences des données |
Équivalence Partielle Les compétences du certifié "Concepteur Développeur en Science des Données" sont plus spécialisées sur l'aspect technique en manipulation de données et algorithmie. Il possède des compétences lui permettant la collecte de données web (C1.3) et concevoir des algorithmes d'apprentissage automatique profond appliquant des modèles de statistiques prédictives à des données non-structurées (Bloc 4) qui ne sont pas évoquées dans cette certification. |
RNCP32123 |
Développeur Full Stack BIG DATA |
Équivalence Partielle Les compétences du certifié "Concepteur Développeur en Science des données" sont plus approfondies sur le développement de modèles de statistiques prédictives permettant d'automatiser les processus de décisions, notamment sur la création d'algorithmes d'apprentissage automatique simple (Bloc 3, Machine Learning) ou profonds (Bloc 4, Deep Learning) adaptés à tous types de donnée, structurées ou non-structurées. |
RNCP34964 |
Data Analyst |
Equivalence partielle Les blocs de compétences 1 à 3 du certifié "Concepteur Développeur en Science des Données" présentent des compétences analogues à celles du Data Analyst. Cependant, il y ajoute : - la création d'infrastructures de collecte, stockage et mise à disposition de la donnée adaptées au besoin de l'organisation, et notamment adaptée au traitement de données massives (Bloc 1, à l'exception de C1.3) - la conception d'algorithmes d'apprentissage automatique profond (réseaux de neurones) pouvant appliquer des modèles de statistiques prédictives à des données non-structurées (Bloc 4, deep learning) - l'évaluation de la performance prédictive des algorithmes d'apprentissage automatique (C3.4 et C4.5) - l'industrialisation des algorithmes d'apprentissage automatique (bloc 5) - la gestion complète de projets données (bloc 6) |
RNCP34545 |
Data Scientist |
Equivalence partielle Les compétences du certifié "Concepteur - Développeur en Science des Données" sont plus spécialisées sur l'aspect technique en création et industrialisation des infrastructures de gestion des données permettant leur collecte, leur stockage et leur mise à disposition aux autres équipes métier, notamment au niveau Big Data (Bloc 1, à l'exception de C1.3). |
RNCP34757 |
Développeur Intelligence Artificielle |
Equivalence partielle Les compétences du certifié "Concepteur Développeur en Science des Données" apportent en plus de cette certification des compétences permettant l'élaboration et l'industrialisation d'infrastructures de stockage et mise à disposition des données adaptées à l'organisation et au volume de données (big data ou non). (Bloc 1, à l'exception de C1.3) Le "Concepteur Développeur en science des données" peut également concevoir des algorithmes d'apprentissage automatique profond appliquant des modèles de statistiques prédictives à des données non-structurées (Bloc 4, deep learning) Le certifié "Concepteur Développeur en Science des Données" a une vision plus globale des projets data lui permettant non uniquement d'en rendre compte, mais également de la diriger dans son ensemble (Compétence C6.6) |
Liens avec des certifications et habilitations enregistrées au Répertoire spécifique :
La certification Concepteur et développeur en science des données a des équivalences partielles avec les certificats enregistrés au Répertoire spécifique suivant :
RS3067 FITEC Big Data et processus décisionnel
RS2158 MICROSOFT France Certification Microsoft – Conception et mise en oeuvre des solutions Big Data Analytics (70-475)
RS3299 M2I Expertises Big Data
RS2234 CEGEFOS NUMERIQUE ACADEMIE - CNA BIG DATA : Récolte et analyse de données volumineuses
RS5248 ESIC Big data et objets connectés
RS2862 EENSAE Paristech, CREST, ENSAE-ENSAI Data science : Savoir collecter, décrypter, analyser et prédire à partir de mégadonnées
RS3497 Simplon DATA - Développer une base de données
Date de décision | 10-02-2021 |
---|---|
Durée de l'enregistrement en années | 5 |
Date d'échéance de l'enregistrement | 10-02-2026 |
Promotions (année d'obtention) pouvant bénéficier du niveau de qualification octroyé |
2020 2019 |
Statistiques :
Année d'obtention de la certification | Nombre de certifiés | Nombre de certifiés à la suite d’un parcours vae | Taux d'insertion global à 6 mois (en %) | Taux d'insertion dans le métier visé à 6 mois (en %) | Taux d'insertion dans le métier visé à 2 ans (en %) |
---|---|---|---|---|---|
2020 | 60 | 0 | 78 | 76 | - |
2019 | 60 | 0 | 86 | 78 | - |
Lien internet vers le descriptif de la certification :
https://www.jedha.co/page/certificat-concepteur-developpeur
Liste des organismes préparant à la certification :
Historique des changements de certificateurs :
Nom légal du certificateur | Siret du certificateur | Action | Date de la modification |
---|---|---|---|
JEDHA | 83872651100028 | Est retiré | 01-04-2023 |
JEDHA | 83872651100036 | Est ajouté | 01-04-2023 |
JEDHA | 83872651100036 | Est retiré | 14-11-2023 |
JEDHA | 83872651100044 | Est ajouté | 14-11-2023 |
Référentiel d'activité, de compétences et d'évaluation :