L'essentiel
Nomenclature
du niveau de qualification
Niveau 7
Code(s) NSF
326 : Informatique, traitement de l'information, réseaux de transmission
Formacode(s)
31067 : Analyse programmation
31052 : Data Warehouse
31026 : Data science
Date d’échéance
de l’enregistrement
01-10-2026
Nom légal | Siret | Nom commercial | Site internet |
---|---|---|---|
ASSOCIATION DE GESTION ICAM STRASBOURG-EUROPE | 51773337400022 | - | https://www.icam.fr |
Objectifs et contexte de la certification :
La révolution numérique a fait rentrer nombre d’entreprises dans l’ère du big data. Le big data joue un rôle de plus en plus stratégique pour les entreprises : l’exploitation des données permettant notamment d’assurer un meilleur suivi de leur performance, d’analyser les comportements des consommateurs, d’identifier des opportunités de marché, etc. Les entreprises ont besoin de mobiliser des compétences spécifiques pour tirer profit au mieux des données . Ces compétences relèvent de trois champs distincts : celui de la collecte et du stockage des données, celui du traitement et de la modélisation des données, et celui de la protection des données.
La certification concerne l'exploitation des données numériques de l'entreprise à des fins de décisions stratégiques, managériales, marketing, techniques. Elle vise à qualifier des Data Scientists disposant des compétences expertes et transverses nécessaires.
Activités visées :
Analyse des besoins métiers de la structure en matière d'accompagnement décisionnel pour l'établissement d'une stratégie globale de transformation de la donnée prenant en compte les contraintes sociales, économiques et environnementales
Pilotage de la remontée et l'intégrité des données en collaboration avec les équipes techniques en vue de leur exploitation
Exploration et analyse des ensembles de données pour fournir des connaissances ("insights") exploitables et soutenir la prise de décision
Développement des modèles par l'utilisation des techniques avancées de statistiques et d'apprentissage automatique pour fournir des informations et accompagner le processus de décision
Pilotage des projets en communiquant avec les parties prenantes et en guidant les membres de l'équipe pour atteindre des objectifs spécifiques
Compétences attestées :
Traduire de manière analytique le besoin métier en rédigeant un cahier des charges en collaboration avec les parties prenantes pour fixer les objectifs attendus
Proposer une conception technique et technologique grâce à un état de l'art prenant en compte l'ensemble des contraintes (temporelles, budgétaires, techniques, managériales, juridiques, etc.) afin de répondre au cahier des charges
Cartographier les flux de données et leur structure par des modèles logiques afin de les préparer aux processus d'intégration
Superviser le développement de systèmes d'acquisition, de transfert et de stockage des données en accord avec les besoins techniques et juridiques (RGPD) en collaborant avec des équipes techniques de façon transparente et inclusive pour pérenniser les flux de données
Assurer l'intégrité des données tout au long de leur cycle de vie par le développement de pipelines ETL (Extract, Transform, Load) afin de réduire les erreurs potentielles et d'assurer une gestion pérenne des flux de données
Analyser des ensembles de données par l'application de techniques statistiques afin de mettre en valeur des tendances, des corrélations et des modèles significatifs
Transmettre des informations issues des données transformées par le développement d'outils de visualisation tels que des tableaux de bords, des infographies et des KPI pour accompagner la prise de décision de l'entreprise
Déterminer une représentation des données à l'aide de techniques d'ingénierie de caractéristiques ("feature engineering") pour entraîner un modèle répondant à la problématique
Entraîner un modèle d'apprentissage supervisé ou non-supervisé à l'aide d'un ensemble de données représentées et en ajustant ses hyper-paramètres pour améliorer ses performances et sa capacité à répondre de manière généralisée à une problématique
Établir une stratégie pour la création d'un modèle d'apprentissage en concevant ou réutilisant des modèles pré-entraînés (utilisant le transfert d'apprentissage), et entraîner ces modèles dans le but de résoudre une problématique métier spécifique
Evaluer les modèles d'apprentissage établis en utilisant des techniques de validations croisées et des métriques de performances afin de déterminer le modèle le plus adapté à la problématique métier
Communiquer les résultats des modèles en détaillant les liens avec les objectifs et en faisant preuve d'éthique et de transparence sur leurs limites afin d'accompagner les processus décisionnels
Assurer une veille technologique par des stratégies de surveillance des tendances et des innovations dans le domaine des sciences de la donnée afin de développer des idées novatrices et accompagner la résolution de problèmes
Collaborer avec des équipes pluridisciplinaires en appliquant les outils du management dans le respect des valeurs éthiques et inclusives afin d'améliorer la performance individuelle et collective
Organiser les activités et les ressources par la mise en place d'une stratégie de gestion afin d'assurer la conduite du projet dans les critères coût-qualité-délais du cahier des charges
Modalités d'évaluation :
Chacun des blocs de compétences est évalué par une mise en situation reconstituée avec évaluation en s'appuyant sur les projets réalisés en centre de formation et la mission en entreprise. Une présentation détaillée est faite au jury du titre.
L'ensemble des évaluations tient compte de la capacité des candidats à adopter une posture professionnelle et inclusive dans leurs expressions écrites ou verbales, et au travers les réalisations et les prototypes qu'ils peuvent réaliser. L'application des normes de sécurité en vigueur, des normes DDRS, et de toute autre législation qui pourrait s'appliquer, comme les normes RGPD sur la protection des données.
Conformément à l’article L123-461 du Code de l’éducation, l’Icam, site de Strasbourg-Europe, propose des aménagements adaptés au handicap déclaré d’un candidat. Le candidat en situation de handicap doit faire la demande d’aménagements dès sa rentrée en formation en adressant directement un mail de demande de prise en compte de son handicap au référent handicap par le biais de l’adresse mail referent-handicap.strasbourg-europe@icam.fr. Pour proposer des aménagements, s’il y a lieu, les candidats en situation de Handicap, devront se faire connaître au début de l’action de formation et fournir une copie de leur RQTH à jour, ainsi qu’une préconisation d’aménagement rédigée par le médecin du travail ou du médecin agréé par la MDPH compétente. Le référent Handicap de l’Icam, site de Strasbourg-Europe proposera s’il y a lieu des aménagements adaptés au handicap de la personne (tiers-temps, salle séparée, équipement spécifique, évaluation coefficientée...) en concertation avec le candidat concerné.
La même procédure doit être observée par tout partenaire potentiel dans sa structure qui informe l’Icam, site de Strasbourg-Europe, des parcours aménagés et des modalités d'aménagement des évaluations effectués pour la certification.
RNCP39590BC01 - Analyser les besoins métiers de la structure en matière d'accompagnement décisionnel afin d'établir une stratégie globale de transformation de la donnée prenant en compte les contraintes sociales, économiques et environnementales
Liste de compétences | Modalités d'évaluation |
---|---|
Traduire de manière analytique le besoin métier en rédigeant un cahier des charges en collaboration avec les parties prenantes pour fixer les objectifs attendus Proposer une conception technique et technologique grâce à un état de l'art prenant en compte l'ensemble des contraintes (temporelles, budgétaires, techniques, managériales, juridiques, etc.) afin de répondre au cahier des charges |
Présentation de la mission en entreprise - Partie définition du besoin : Mission en situation réelle - Individuel. Le candidat doit présenter le cahier des charges issue de la problématique soumise par l'entreprise. Ce cahier des charges établit des objectifs chiffrés et les contraintes liées au projet (techniques, technologiques, budgétaires, juridiques, délais, politiques...). Au travers de sa présentation, le candidat démontre sa compréhension du besoin métier et du contexte dans lequel il s'inscrit, de ces interlocuteurs, ainsi que les objectifs fixés. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie Etat de l'Art : Mission en situation réelle - Individuel. Le candidat présente l'existant en entreprise et son historique, en matière d'acquisition, d'intégration et d'exploitation des données. Il identifie les caractéristiques en lien avec la problématique pour pouvoir y répondre. Si l'infrastructure initiale ne permet pas de répondre à la problématique, il propose des solutions techniques et/ou méthodologiques pour pallier à ce manque. Il justifie ses choix par un argumentaire technique mais aussi temporel, budgétaire, managérial, juridique, etc. Lors de sa soutenance, le candidat doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière les éléments du contexte, de la problématique et des éléments de justification. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. |
RNCP39590BC02 - Piloter la remontée et l'intégrité des données en collaborant avec les équipes techniques en vue de leur exploitation
Liste de compétences | Modalités d'évaluation |
---|---|
Cartographier les flux de données et leur structure par des modèles logiques afin de les préparer aux processus d'intégration Superviser le développement de systèmes d'acquisition, de transfert et de stockage des données en accord avec les besoins techniques et juridiques (RGPD) en collaborant avec des équipes techniques de façon transparente et inclusive pour pérenniser les flux de données Assurer l'intégrité des données tout au long de leur cycle de vie par le développement de pipelines ETL (Extract, Transform, Load) afin de réduire les erreurs potentielles et d'assurer une gestion pérenne des flux de données |
Présentation de la mission en entreprise - Partie cartographie : Mission en situation réelle - Présentation individuelle. Le candidat présente l'ensemble des flux de données ainsi que leur structure, leurs sources, leurs caractéristiques, leur conformité aux normes RGPD, etc., dans la structure d'accueil à l'aide d'outils standards et des modèles logiques. Il s'appuie sur sa production pour identifier les éléments permettant de répondre à la problématique et, le cas échéant, justifie une transformation de ces données afin qu'elles puissent être exploitées dans ce cadre. Lors de sa soutenance, le candidat doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie supervision technique : Mission en situation réelle - Individuel. Le candidat, en collaboration avec des équipes technique, suit et participe à la mise en place des systèmes d'acquisition, de transfert et de stockage des données (data lake) afin de répondre à la problématique d'intégration, tout en assurant le respect des normes de sécurité et juridiques telles que les normes RGPD. Il s'appuie sur une expression écrite de ses besoins, des outils de gestion de projet et une posture professionnelle, ouverte et transparente pour mener à bien le projet. Il supervise les tests de ces infrastructures et produit une synthèse en conséquence. Lors de sa soutenance, le candidat présente sa démarche, le lien avec la problématique, les différentes phases du projet, les résultats des tests, et expose la synthèse de ses travaux. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie ETL : Mission en situation réelle - Individuel. Le candidat, à partir d'un ensemble de données brutes (ex: data lake) fourni par la structure d'accueil, et s'appuyant sur une conception technique vis-à-vis d'une problématique donnée, met en place un pipeline ETL permettant d'extraire des données les caractéristiques répondant à la problématique et de les transformer en vue d'une exploitation. Il utilise pour cela des outils standards (Talend, Alteryx...etc.). Lors de sa soutenance, le candidat présente le pipeline en question avec les différentes étapes d'extraction et de transformation, et leurs justifications. Il présente le jeu de données en sortie. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. |
RNCP39590BC03 - Explorer et analyser des ensembles de données afin de fournir des connaissances ("insights") exploitables et de soutenir la prise de décision
Liste de compétences | Modalités d'évaluation |
---|---|
Analyser des ensembles de données par l'application de techniques statistiques afin de mettre en valeur des tendances, des corrélations et des modèles significatifs Transmettre des informations issues des données transformées par le développement d'outils de visualisation tels que des tableaux de bords, des infographies et des KPI pour accompagner la prise de décision de l'entreprise |
Présentation de la mission en entreprise - Partie analyse des données : Mission en situation réelle - Individuel. Le candidat, à partir des données transformées, applique, pour mettre en valeur des informations en lien avec la problématique, un ensemble de techniques statistiques telles que : Matrices de corrélation, ACP (Analyse par Composante Principale), Test ANOVA (Analyse de la Variance), Analyse univariée, Analyse multivariée. Il en présente les informations extraites et les analyses qui peuvent en découler. À travers ses travaux, il démontre sa maîtrise des différentes techniques et de leur contexte d'application, et est capable de présenter leurs limites. Lors de sa soutenance, le candidat présente et justifie l'ensemble des techniques qu'il a appliqué et les résultats obtenus. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie visualisation des données : Mission en situation réelle - Individuel. Le candidat à l'aide d'outils standards, doit concevoir et déployer des tableaux de bord permettant une visualisation d'informations, de KPI, afin de mettre en place une démarche de "data storytelling" (une interprétation vulgarisée) auprès des décisionnaires. Ces informations sont issues des données transformées et/ou des analyses qui en ont été faites. Les outils utilisés servent la création de rapports et de représentation de données (Power BI, Tableaux...etc.). L'ensemble des productions respecte les principes de l'accessibilité numérique pour favoriser l'inclusivité, conformément au référentiel RG2A (Référentiel Général d'Amélioration de l'Accessibilité). Lors de sa soutenance, le candidat présente ses travaux, les informations issues de ces tableaux de bord, et les exploite dans un data storytelling en lien avec la problématique de la mission. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. |
RNCP39590BC04 - Développer des modèles en utilisant des techniques avancées de statistiques et d'apprentissage automatique pour fournir des informations et accompagner le processus décisionnel
Liste de compétences | Modalités d'évaluation |
---|---|
Déterminer une représentation des données à l'aide de techniques d'ingénierie de caractéristiques (feature engineering) pour entraîner un modèle répondant à la problématique Entraîner un modèle d'apprentissage supervisé ou non-supervisé à l'aide d'un ensemble de données représentées et en ajustant ses hyperparamètres pour améliorer ses performances et sa capacité à répondre de manière généralisée à une problématique Établir une stratégie pour la création d'un modèle d'apprentissage en concevant ou réutilisant des modèles pré-entraînés (utilisant le transfert d'apprentissage), et entraîner ces modèles dans le but de résoudre une problématique métier spécifique Evaluer les modèles d'apprentissage établis en utilisant des techniques de validations croisées et des métriques de performances afin de déterminer le modèle le plus adapté à la problématique métier Communiquer les résultats des modèles en détaillant les liens avec les objectifs et en faisant preuve d'éthique et de transparence sur leurs limites afin d'accompagner les processus décisionnels Assurer une veille technologique par des stratégies de surveillance des tendances et des innovations dans le domaine des sciences de la donnée afin de développer des idées novatrices et accompagner la résolution de problèmes |
Présentation de la mission en entreprise - Partie Ingénierie de caractéristiques (Feature Engineering) : Mission en situation réelle - Individuel. Le candidat, à partir des données transformées après ETL, applique des techniques dites de feature engineering, pour venir enrichir les données existantes de nouvelles variables ne figurant pas dans l'ensemble d'apprentissage, afin de les rendre exploitables par un modèle d'apprentissage qui viendra répondre à la problématique fixée. Les techniques utilisables sont : encodage (ex: One-Hot Encoding), mathématiques (ex: Transformations logarithmiques, scaling, normalisation...etc.), gestion des données manquantes, gestion des valeurs aberrantes (outliers), extraction de caractéristiques. Lors de sa soutenance, le candidat présente et justifie l'ensemble des techniques qu'il a appliqué et les résultats obtenus. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie Evaluation des Modèles d'apprentissage : Mission en situation réelle - Individuel. Le candidat quantifie la précision de modèles d'apprentissage et la représentativité des données d'entrées à l'aide de métriques et des techniques d'évaluation de leurs performances respectives. Il identifie des situations précises concernant l'apprentissage des modèles : Overfitting (Sur-apprentissage), Underfitting (Sous-apprentissage), Goodfitting (Apprentissage correct), Unrepresentative Dataset (Données non représentatives). Finalement, il préconise des modifications à apporter, que ce soit au niveau des choix de modèles, des choix de données, des paramétrages, dans un processus itératif d'entraînement. Les métriques/techniques d'évaluation employées : Courbes d'apprentissage, Cross-Validation, courbe ROC (Receiver Operating Caracteristic), AUC (Area Under the Curve), F1-Score, Score de silhouettes, etc. Lors de sa soutenance, le candidat présente les métriques/techniques exploitées pour justifier la performance de ces modèles tout au long du processus itératif d'entraînement. Il doit adapter une posture professionnelle et exploiter un support de présentation mettant en lumière ses productions et leurs justifications. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Echange avec le jury sur des sujets d'actualités : Mission en situation réelle - Individuel. Lors d'un échange avec le jury, le candidat se voit poser des questions sur des sujets d'actualités autour de la data science et en lien avec la mission effectuée. Il doit y répondre en démontrant sa connaissance du sujet et des contextes qui y sont liés. Il présente en outre les outils et méthodes qu'il exploite pour assurer sa veille technologique (suivi des actualités, journaux, forums, conférences, recherche...etc.). Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. |
RNCP39590BC05 - Piloter des projets en communiquant avec les parties prenantes et en guidant les membres de l'équipe pour atteindre des objectifs spécifiques
Liste de compétences | Modalités d'évaluation |
---|---|
Collaborer avec des équipes pluridisciplinaires en appliquant les outils du management dans le respect des valeurs éthiques et inclusives afin d'améliorer la performance individuelle et collective Organiser les activités et les ressources par la mise en place d'une stratégie de gestion afin d'assurer la conduite du projet dans les critères coût-qualité-délais du cahier des charges |
Présentation de la mission en entreprise - Echange avec le jury sur la collaboration avec les équipes : Mission en situation réelle - Individuel. Lors d'un échange avec le jury, le candidat se voit poser des questions sur les échanges et les interactions qu'il a pu avoir avec des interlocuteurs dans l'entreprise et/ou externes à celle-ci. Il doit y répondre en présentant le contexte de ces interactions, et en démontrant sa capacité à s'adapter à ses interlocuteurs, en adoptant une posture qui favorise la transmission des informations et l'engagement dans le projet. Il explique les outils et les méthodes employées lors de la communication de ses travaux et résultats. Les difficultés rencontrées dans les échanges et leur résolution sont exposées. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. Présentation de la mission en entreprise - Partie définition de la gestion du projet : Mission en situation réelle - Individuel. Le candidat doit présenter, à partir du cahier des charges validé par l'entreprise, la stratégie et les outils de développement du projet. Il doit présenter : le planning (ex: Gantt) du développement du projet, les responsabilités de chacun des interlocuteurs du projet, les indicateurs clés et des outils de gestion pour suivre l'avancement du projet et le respect des contraintes, les outils de communication et d'échanges avec le client et les interlocuteurs pour anticiper les problématiques liées au projet. Les candidats ont pour contraintes : d'assurer le respect des budgets, des niveaux de qualités, et des délais associés au projet, de favoriser le travail collaboratif, d'adopter une posture professionnelle et inclusive dans les échanges qu'ils peuvent avoir, et de démontrer leur capacité à exploiter des outils standards de gestion de projet. Évalué par un jury d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieurs à la structure d'accueil et de la structure de certification. |
Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :
La certification se compose de 5 blocs de compétences. La validation totale du titre s’obtient ainsi par la validation de ces 5 blocs, à travers la restitution des compétences acquises lors de projets réalisés en centre et dans le cadre du projet professionnel réalisé via une immersion de 18 semaines minimum en milieu professionnel.
Une VAE est possible pour les candidats présentant un parcours professionnel qui démontre l'acquisition de ces compétences.
En cas de validation partielle, les blocs validés restent acquis à vie. Chacun d'eux fait l'objet d'une attestation de réussite.
Secteurs d’activités :
Ce métier relève des enjeux à la fois fonctionnels et stratégiques. Bien qu’il s’agisse d’un métier récent, on retrouve les Data Scientists dans de nombreux secteurs d’activité. Finance, informatique, assurance, e-commerce ou encore grande distribution ; tant de domaines dans lesquels le Data Scientist peut exercer dans le cadre d' agence digitale, de conseil , une ESN, un annonceur, dans la distribution, le Retail, le E-commerce, chez un éiteur de logiciels, pour des plateformes digitales, d'intermédiation, de Pure player, ou encore au sien d'une Start-up.
Type d'emplois accessibles :
DataScientist, Consultant Data Senior, Chef de projet Data, Consultant Data, Chief Data scientist
En fonction de sa montée en compétences, le Data Scientist pourra évoluer vers un poste de Chef de projet data ou Data Scientist senior après une première expérience significative.
Code(s) ROME :
- M1805 - Études et développement informatique
Références juridiques des règlementations d’activité :
Le cas échant, prérequis à l’entrée en formation :
Pour les publics demandeurs d’emplois et hors VAE : une formation scientifique menant à un niveau 6 en informatique avec de bonnes connaissances en mathématiques et statistiques, ou à un niveau 7 (type master/diplôme d'ingénieur scientifique), complété de la réussite préalable à un test de recrutement écrit de 2 heures et à un entretien de motivation professionnelle.
Le cas échant, prérequis à la validation de la certification :
La validation totale de la certification s’obtient par la validation des 5 blocs qui la compose ; hors VAE, avoir suivi l'intégralité de la formation.
Pré-requis disctincts pour les blocs de compétences :
Non
Validité des composantes acquises :
Voie d’accès à la certification | Oui | Non | Composition des jurys | Date de dernière modification |
---|---|---|---|---|
Après un parcours de formation sous statut d’élève ou d’étudiant | X | - | - | |
En contrat d’apprentissage | X | - | - | |
Après un parcours de formation continue | X |
Le jury est composé d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieures à la structure d'accueil et de la structure de certification. Une représentation équilibrée hommes/femmes sera recherchée |
- | |
En contrat de professionnalisation | X |
Le jury est composé d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieures à la structure d'accueil et de la structure de certification. Une représentation équilibrée hommes/femmes sera recherchée |
- | |
Par candidature individuelle | X | - | - | |
Par expérience | X |
Le jury est composé d'au moins trois professionnels issus du domaine de l'informatique et/ou de l'industrie, dont au moins 50% de Data Scientist professionnels, et extérieures à la structure d'accueil et de la structure de certification. Une représentation équilibrée hommes/femmes sera recherchée |
- |
Oui | Non | |
---|---|---|
Inscrite au cadre de la Nouvelle Calédonie | X | |
Inscrite au cadre de la Polynésie française | X |
Aucune correspondance
Date de décision | 01-10-2024 |
---|---|
Durée de l'enregistrement en années | 2 |
Date d'échéance de l'enregistrement | 01-10-2026 |
Date de dernière délivrance possible de la certification | 01-10-2030 |
Promotions (année d'obtention) pouvant bénéficier du niveau de qualification octroyé |
2022 2021 2023 |
Statistiques :
Année d'obtention de la certification | Nombre de certifiés | Nombre de certifiés à la suite d’un parcours vae | Taux d'insertion global à 6 mois (en %) | Taux d'insertion dans le métier visé à 6 mois (en %) | Taux d'insertion dans le métier visé à 2 ans (en %) |
---|---|---|---|---|---|
2023 | 11 | 0 | 64 | 58 | - |
2022 | 21 | 0 | 60 | 55 | - |
2021 | 16 | 0 | 64 | 52 | - |
Lien internet vers le descriptif de la certification :
https://www.icam.fr/formations-professionnelles/formation-data-scientist/
Liste des organismes préparant à la certification :
Certification(s) antérieure(s) :
Code de la fiche | Intitulé de la certification remplacée |
---|---|
RS2858 | Analyser les données: intégration, exploitation, visualisation, industrialisation |
Référentiel d'activité, de compétences et d'évaluation :