IA Fondamentaux
3 termesAgent IA
Système IA autonome capable de planifier, décider et exécuter des actions pour atteindre un objectif.
Un agent IA combine un LLM (cerveau) avec des outils (tools) lui permettant d'interagir avec son environnement : recherche web, appels d'API, exécution de code, bases de données. Architecture typique : boucle Reason-Act-Observe. Exemples : agents commerciaux automatisés, assistants de recherche, agents de code. Frameworks : LangChain Agents, CrewAI, AutoGen, OpenAI Assistants API. Champ en explosion en 2025-2026.
Voir aussi : LLM (Large Language Model), Prompt engineering, RAG (Retrieval Augmented Generation)
IA générative
Branche de l'IA qui crée du contenu original (texte, image, son, vidéo) à partir d'apprentissage sur des données existantes.
L'IA générative regroupe les modèles capables de produire des contenus nouveaux et cohérents : textes (ChatGPT, Claude, Gemini), images (Midjourney, DALL-E, Stable Diffusion), vidéos (Sora, Runway), code (Copilot, Cursor), audio (ElevenLabs, Suno). Ces modèles s'appuient majoritairement sur des architectures de type Transformer et des phases d'entraînement massif sur des données publiques et semi-publiques. L'émergence grand public date de fin 2022 avec ChatGPT.
Voir aussi : LLM (Large Language Model), Transformer, Prompt engineering
Intelligence Artificielle (IA)
Discipline visant à concevoir des systèmes capables d'accomplir des tâches nécessitant habituellement l'intelligence humaine.
L'intelligence artificielle désigne l'ensemble des techniques permettant à une machine d'imiter ou reproduire des fonctions cognitives humaines : perception, raisonnement, apprentissage, prise de décision, création. L'IA se décompose en plusieurs courants : IA symbolique (règles), IA statistique / apprentissage automatique (données), et IA hybride. Depuis 2020, le terme est majoritairement associé aux approches statistiques (machine learning, deep learning, LLMs) qui dominent la recherche et les applications industrielles.
Voir aussi : Machine Learning (apprentissage automatique), Deep Learning (apprentissage profond), LLM (Large Language Model)
Machine Learning
7 termesApprentissage non supervisé
Paradigme ML où l'algorithme découvre seul des structures dans les données non étiquetées.
Pas d'étiquettes fournies : l'algorithme trouve des patterns cachés. Applications principales : clustering (K-means, DBSCAN, hiérarchique), réduction de dimension (PCA, t-SNE, UMAP), détection d'anomalies, système de recommandation. Moins utilisé que le supervisé en business mais crucial en exploration de données.
Voir aussi : Apprentissage supervisé
Apprentissage par renforcement
Paradigme ML où un agent apprend par essai/erreur avec récompenses et punitions.
L'agent interagit avec un environnement, effectue des actions, reçoit des récompenses (positives ou négatives), et ajuste sa stratégie pour maximiser les récompenses cumulées. Applications : jeux (AlphaGo, Dota 2), robotique, trading algorithmique, optimisation de systèmes, RLHF pour LLMs.
Voir aussi : Machine Learning (apprentissage automatique), RLHF (Reinforcement Learning from Human Feedback)
Apprentissage supervisé
Paradigme ML où l'algorithme apprend à partir de données étiquetées.
On fournit à l'algorithme des exemples avec leurs étiquettes correctes (ex : emails spam / non-spam, images chat / chien). Il apprend à prédire l'étiquette pour de nouveaux exemples. Deux grandes familles : classification (étiquette discrète) et régression (valeur continue). Méthodes : régression, arbres de décision, SVM, réseaux de neurones, XGBoost.
Voir aussi : Machine Learning (apprentissage automatique), Apprentissage non supervisé
Feature engineering
Processus de création et sélection de variables pertinentes pour un modèle ML à partir de données brutes.
Le feature engineering consiste à transformer les données brutes en variables (features) qui maximiseront la performance d'un modèle ML : normalisation, encodage catégoriel, création de ratios, extractions temporelles, interactions. Historiquement clé du ML classique (80% du travail d'un Data Scientist). Moins crucial en deep learning (features apprises automatiquement) mais toujours nécessaire pour les données tabulaires.
Voir aussi : Machine Learning (apprentissage automatique), Data Scientist
Machine Learning (apprentissage automatique)
Sous-discipline de l'IA qui permet aux machines d'apprendre à partir de données sans être explicitement programmées.
Le machine learning regroupe les algorithmes qui améliorent leurs performances à partir de l'exposition à des données. Trois grands paradigmes : apprentissage supervisé (labels fournis — classification, régression), non supervisé (sans label — clustering, réduction de dimension), par renforcement (récompense/punition — robotique, jeux). Méthodes courantes : régression linéaire/logistique, arbres de décision, forêts aléatoires, SVM, réseaux de neurones. Python (scikit-learn) reste l'outil de référence.
Voir aussi : Deep Learning (apprentissage profond), Apprentissage supervisé, Apprentissage non supervisé
Surapprentissage (Overfitting)
Modèle qui apprend trop précisément les données d'entraînement et perd en généralisation.
Un modèle en overfitting excelle sur le train set mais échoue sur le test set (cas inconnus). Causes : trop de paramètres, pas assez de données, pas de régularisation. Détection : écart train vs validation. Solutions : plus de données, régularisation (L1/L2, dropout), early stopping, cross-validation.
Voir aussi : Machine Learning (apprentissage automatique), Validation croisée (Cross-validation)
Validation croisée (Cross-validation)
Technique pour évaluer la généralisation d'un modèle en découpant le dataset en plusieurs partitions.
K-fold cross-validation (méthode courante) : on divise le dataset en K morceaux, on entraîne K fois en changeant à chaque fois le morceau de test, on moyenne les résultats. Réduit la variance de l'évaluation, détecte l'overfitting. K=5 ou 10 standard. Pour séries temporelles : utiliser TimeSeriesSplit à la place.
Voir aussi : Machine Learning (apprentissage automatique), Surapprentissage (Overfitting)
Deep Learning
6 termesCNN (Convolutional Neural Network)
Réseau de neurones spécialisé dans le traitement d'images et de signaux.
Les CNN utilisent des couches de convolution pour extraire des features locales (bords, textures, formes) à différentes échelles. Architecture de référence en computer vision depuis AlexNet (2012). Modèles célèbres : VGG, ResNet, EfficientNet, YOLO. Progressivement remplacés par les Vision Transformers (ViT) dans la recherche récente.
Voir aussi : Deep Learning (apprentissage profond), Computer Vision, Transformer
Computer Vision
Branche de l'IA dédiée à l'analyse et compréhension d'images et vidéos par des machines.
La Computer Vision englobe : classification d'images, détection d'objets (YOLO, Detectron), segmentation (SAM), OCR, reconnaissance faciale, analyse vidéo. Applications : médical (imagerie), industrie (contrôle qualité), automobile (conduite autonome), retail (visual search). Architectures : CNN historiques (ResNet), puis Transformers (ViT, DINOv2). Stack : PyTorch, OpenCV, Torchvision.
Voir aussi : Deep Learning (apprentissage profond), CNN (Convolutional Neural Network), Transformer
Deep Learning (apprentissage profond)
Sous-ensemble du ML basé sur des réseaux de neurones à plusieurs couches.
Le deep learning utilise des réseaux de neurones artificiels avec de nombreuses couches (d'où 'profond') pour modéliser des fonctions complexes. Performant pour la vision (CNN), le langage (Transformer), le son (WaveNet, Whisper). Entraînement coûteux en données et calcul (GPU, TPU). Frameworks : PyTorch (majoritaire en recherche), TensorFlow, JAX. Le deep learning a révolutionné l'IA depuis 2012 (AlexNet) et porté les progrès de l'IA générative actuelle.
Voir aussi : Transformer, CNN (Convolutional Neural Network), Réseau de neurones
Mécanisme d'attention
Technique permettant à un modèle de se concentrer sur les parties pertinentes d'une séquence.
Introduit dans les RNNs avant de devenir la fondation du Transformer. Self-attention : chaque token de la séquence peut 'regarder' tous les autres et pondérer leur importance. Permet de capter des dépendances à longue distance impossible avec des RNNs classiques. Formule : Attention(Q, K, V) = softmax(QK^T/√d_k)V.
Voir aussi : Transformer, LLM (Large Language Model)
Réseau de neurones
Architecture computationnelle inspirée du cerveau, brique de base du deep learning.
Un réseau de neurones est composé de couches de neurones artificiels connectés. Chaque neurone applique une fonction d'activation à une combinaison pondérée des entrées. L'apprentissage se fait par rétropropagation du gradient (backpropagation). Types : feedforward, CNN (images), RNN (séquences), Transformer (langage).
Voir aussi : Deep Learning (apprentissage profond), Transformer, CNN (Convolutional Neural Network)
Transformer
Architecture de réseau de neurones basée sur le mécanisme d'attention, fondation des LLMs modernes.
Introduit en 2017 par Google dans l'article « Attention Is All You Need », le Transformer a remplacé les RNN/LSTM pour la plupart des tâches NLP. Son mécanisme d'attention permet de capter les dépendances à longue distance dans les séquences. Architecture en couches d'encodeurs/décodeurs (BERT) ou décodeurs seuls (GPT). Base de tous les LLMs actuels, des modèles de vision (ViT) et des modèles multimodaux.
Voir aussi : LLM (Large Language Model), Mécanisme d'attention, BERT
NLP / LLM
11 termesBERT
Modèle Transformer bidirectionnel de Google pour la compréhension du langage.
BERT (Bidirectional Encoder Representations from Transformers), publié par Google en 2018, a révolutionné le NLP avant l'arrivée des LLMs génératifs. Utilise uniquement la partie encodeur du Transformer. Excellent pour classification, NER, sentiment analysis, question answering. Toujours utilisé en 2026 pour des tâches légères et rapides.
Voir aussi : Transformer, NLP (Natural Language Processing), LLM (Large Language Model)
Embedding
Représentation numérique (vecteur) d'un objet (mot, phrase, image) dans un espace sémantique.
Un embedding transforme un objet discret (mot, phrase, document, image, utilisateur) en vecteur dense de nombres réels, dans un espace où la proximité numérique reflète la proximité sémantique. Base des systèmes RAG, recommandation, recherche sémantique. Modèles courants : OpenAI text-embedding-3, Sentence-Transformers, BGE (Beijing), E5 (Microsoft). Dimension typique : 384 à 3 072.
Voir aussi : RAG (Retrieval Augmented Generation), Base de données vectorielle, LLM (Large Language Model)
Few-shot learning
Capacité d'un LLM à résoudre une tâche à partir de quelques exemples fournis dans le prompt.
Plutôt que de fine-tuner, on donne 2-10 exemples représentatifs de la tâche directement dans le prompt. Le LLM infère le pattern et applique sur de nouveaux cas. Exemple : 3 traductions FR→EN → il traduit les suivantes. Puissant mais limité par la taille du contexte. Alternative : zero-shot (aucun exemple) ou fine-tuning complet.
Voir aussi : Prompt engineering, LLM (Large Language Model)
Fine-tuning
Adaptation d'un modèle pré-entraîné à une tâche ou domaine spécifique via entraînement supplémentaire.
Le fine-tuning prend un modèle pré-entraîné (ex : LLaMA, Mistral) et l'ajuste sur un dataset spécialisé pour améliorer ses performances dans un domaine donné. Techniques : full fine-tuning (coûteux), LoRA / QLoRA (efficace et accessible), DPO / RLHF (alignement). Alternative moins coûteuse : le prompt engineering et le RAG. Utile quand on a des données propriétaires massives ou besoin d'un style/format spécifique.
Voir aussi : LLM (Large Language Model), LoRA (Low-Rank Adaptation), RLHF (Reinforcement Learning from Human Feedback)
Hallucination
Production par un LLM d'informations factuellement fausses mais énoncées avec assurance.
Les hallucinations sont un des principaux défauts des LLMs : invention de faits, citations inventées, chiffres inexacts. Causes : données d'entraînement limitées, objectif de vraisemblance du texte (pas de vérité), manque de contexte. Atténuations : RAG, fact-checking automatique, citation obligatoire des sources, température basse, chaîne de pensée vérifiable. Enjeu critique pour les usages production.
Voir aussi : LLM (Large Language Model), RAG (Retrieval Augmented Generation), Prompt engineering
LLM (Large Language Model)
Grand modèle de langage entraîné sur de vastes corpus textuels pour comprendre et générer du texte naturel.
Un LLM est un modèle de deep learning, généralement de type Transformer, avec plusieurs milliards à centaines de milliards de paramètres, pré-entraîné sur des corpus massifs (web, livres, code). Exemples : GPT-5 (OpenAI), Claude Opus 4 (Anthropic), Gemini 2 Ultra (Google), Mistral Large 2 (Mistral AI), LLaMA 4 (Meta). Capacités : dialogue, raisonnement, génération créative, résumé, traduction, programmation. Utilisation via API ou auto-hébergement (modèles open-source).
Voir aussi : Transformer, Fine-tuning, RAG (Retrieval Augmented Generation)
LoRA (Low-Rank Adaptation)
Technique de fine-tuning efficace de LLMs avec très peu de paramètres entraînables.
LoRA gèle les poids du modèle de base et entraîne uniquement de petites matrices de rang faible ajoutées à certaines couches. Réduction spectaculaire du coût de fine-tuning : 10 000× moins de paramètres, même performance. QLoRA ajoute la quantification pour réduire encore plus la RAM. Incontournable en 2026 pour fine-tuner Mistral, LLaMA, etc.
Voir aussi : Fine-tuning, LLM (Large Language Model)
NLP (Natural Language Processing)
Traitement automatique du langage naturel par des machines.
Le NLP regroupe les techniques permettant à un ordinateur de traiter le langage humain : compréhension (classification, NER, parsing), génération (résumé, traduction, dialogue), recherche sémantique. Deep learning depuis 2018 (BERT, GPT). Applications : chatbots, traduction, analyse de sentiment, résumé automatique. Stack : Hugging Face Transformers, spaCy, NLTK.
Voir aussi : LLM (Large Language Model), Transformer, Prompt engineering
Prompt engineering
Art et science de rédiger des instructions efficaces pour obtenir les meilleurs résultats d'un LLM.
Le prompt engineering consiste à concevoir des prompts (requêtes textuelles) optimisés pour guider un LLM. Techniques : rôle (« tu es un expert... »), exemples (few-shot), contraintes de format, chaîne de pensée (chain-of-thought), décomposition de tâches, RAG. Métier émergent avec salaire 45-150 K€ en 2026, en forte pénurie (+180% d'offres France).
Voir aussi : LLM (Large Language Model), Few-shot learning, RAG (Retrieval Augmented Generation)
RAG (Retrieval Augmented Generation)
Technique qui enrichit les réponses d'un LLM par récupération de documents externes pertinents.
Le RAG associe un LLM à une base de connaissances externe (souvent une base vectorielle). Étapes : embedder la question, retrouver les documents pertinents par similarité, les injecter dans le prompt comme contexte, générer la réponse. Permet de réduire les hallucinations, d'utiliser des données propriétaires non présentes dans l'entraînement, et de citer les sources. Outils : LangChain, LlamaIndex, Pinecone, Weaviate, ChromaDB.
Voir aussi : LLM (Large Language Model), Base de données vectorielle, Embedding
RLHF (Reinforcement Learning from Human Feedback)
Technique clé pour aligner les LLMs sur les préférences humaines.
Le RLHF combine apprentissage supervisé classique et apprentissage par renforcement guidé par des évaluations humaines. Chaîne typique : modèle de base pré-entraîné → fine-tuning supervisé → reward model (basé sur feedbacks humains) → optimisation RL (PPO, DPO). C'est ce qui différencie GPT-4 de GPT-3 pour l'alignement et la sécurité.
Voir aussi : LLM (Large Language Model), Fine-tuning, Apprentissage par renforcement
Data
1 termeBase de données vectorielle
Base de données spécialisée dans le stockage et la recherche rapide de vecteurs d'embeddings.
Les bases vectorielles optimisent la recherche par similarité (cosinus, euclidienne) sur des millions à milliards de vecteurs. Indispensables aux systèmes RAG, recherche sémantique, recommandation. Acteurs : Pinecone (cloud), Weaviate, Qdrant, Milvus, ChromaDB (open source), pgvector (PostgreSQL extension). Dimension marché en très forte croissance depuis 2023.
Voir aussi : RAG (Retrieval Augmented Generation), Embedding, LLM (Large Language Model)
MLOps
1 termeMLOps
Ensemble de pratiques pour déployer, maintenir et monitorer des modèles de machine learning en production.
MLOps applique les principes DevOps au cycle de vie des modèles ML : versioning (data + code + modèles), CI/CD des modèles, tests, déploiement (Kubernetes, serverless), monitoring (drift de données, performance), retraining. Outils courants : MLflow, Weights & Biases, Kubeflow, BentoML, Seldon. Métier MLOps Engineer : salaire 48-145 K€ en 2026, très demandé.
Voir aussi : Data Scientist, Machine Learning Engineer
Éthique & Compliance
6 termesAI Act (Règlement européen sur l'IA)
Règlement européen adopté en 2024 encadrant le développement et l'usage de l'IA dans l'UE.
L'AI Act classifie les systèmes d'IA en 4 niveaux de risque (inacceptable, haut, limité, minimal) et impose des obligations proportionnelles : documentation, audit, transparence, supervision humaine. Application progressive 2025-2027. Impact business : besoin massif d'AI Ethicists et Compliance Officers (+120% d'offres). Sanctions : jusqu'à 35 M€ ou 7% du CA mondial.
Voir aussi : , RGPD (Règlement Général sur la Protection des Données), XAI (Explainable AI)
Biais algorithmique
Distorsion systématique dans les résultats d'un modèle due aux données d'entraînement ou à sa conception.
Les biais algorithmiques reproduisent ou amplifient les biais présents dans les données (historiques, sociétaux, géographiques, genre, ethnicité). Exemples : discrimination dans le recrutement automatisé, erreurs sur les visages non blancs en reconnaissance faciale, stéréotypes dans les LLMs. Correction : audit des données, techniques de débiaisage, équité algorithmique, diversification des équipes de développement.
Voir aussi : , XAI (Explainable AI), Équité algorithmique (Fairness)
Équité algorithmique (Fairness)
Propriété d'un modèle qui produit des décisions équitables entre groupes démographiques.
Trois définitions principales (parfois incompatibles) : parité démographique (mêmes taux de décision positive par groupe), égalité des opportunités (mêmes taux de vrais positifs par groupe), parité prédictive (même précision par groupe). Mesure via outils dédiés (Fairlearn, AIF360). Critique en recrutement, crédit, santé, justice prédictive.
Voir aussi : Biais algorithmique, AI Act (Règlement européen sur l'IA)
RGPD (Règlement Général sur la Protection des Données)
Règlement européen de 2018 protégeant les données personnelles des citoyens UE.
Le RGPD impose à tout traitement de données personnelles (y compris pour entraîner des IA) : consentement explicite, finalité, minimisation, sécurité, droit à l'oubli, portabilité. Impact IA : anonymisation obligatoire, explicabilité des décisions automatisées, analyse d'impact (PIA). Sanctions : jusqu'à 20 M€ ou 4% du CA mondial. Couplé à l'AI Act pour les systèmes IA à haut risque.
Voir aussi : AI Act (Règlement européen sur l'IA), Vie privée (Privacy)
Vie privée (Privacy)
Protection des données personnelles et droits des individus sur leurs informations.
Enjeu central en IA : les modèles peuvent mémoriser des données d'entraînement, réidentifier des individus anonymisés, fuiter des informations via prompts. Techniques de protection : différential privacy, federated learning, data minimization, anonymisation k-anonymity, chiffrement homomorphe. Encadré par RGPD (UE) et AI Act.
Voir aussi : RGPD (Règlement Général sur la Protection des Données), AI Act (Règlement européen sur l'IA)
XAI (Explainable AI)
Ensemble de techniques permettant de comprendre et expliquer les décisions d'un modèle d'IA.
L'explicabilité de l'IA répond à un besoin légal (AI Act, RGPD) et éthique : comprendre pourquoi un modèle prend telle décision. Techniques : SHAP, LIME, intégrated gradients, attention visualisation, contrefactuels. Particulièrement critique en finance (credit scoring), santé (diagnostic), RH (recrutement) où la décision automatisée doit être justifiable.
Voir aussi : , AI Act (Règlement européen sur l'IA), Biais algorithmique
Métiers
3 termesData Analyst
Professionnel qui transforme les données brutes en insights actionnables pour le business.
Le Data Analyst fait parler les données pour aider à la prise de décision : dashboards, KPIs, analyses ad-hoc, A/B tests. Stack : SQL (indispensable), Python ou R, Tableau / Power BI / Looker. Moins axé modélisation que le Data Scientist, plus axé storytelling et business. Porte d'entrée classique vers les métiers data. Salaire France 2026 : 35-85 K€.
Voir aussi : Data Scientist
Data Scientist
Professionnel qui extrait de la valeur des données à travers des analyses statistiques et modèles ML.
Le Data Scientist combine compétences en statistiques, programmation (Python, R), machine learning et compréhension métier pour résoudre des problèmes business avec des données. Tâches : exploration, modélisation prédictive, communication des résultats. Stack typique : Python, Pandas, scikit-learn, SQL, parfois PyTorch. Salaire France 2026 : 42-120 K€ selon expérience.
Voir aussi : Machine Learning (apprentissage automatique), Data Analyst, Machine Learning Engineer
Machine Learning Engineer
Ingénieur spécialisé dans le développement, déploiement et industrialisation de modèles ML en production.
Le ML Engineer fait le pont entre la recherche data science et l'ingénierie logicielle : productionisation de modèles, scalabilité, monitoring, MLOps. Stack : Python avancé, Docker/Kubernetes, cloud (AWS/GCP/Azure), CI/CD, model serving (TorchServe, Seldon). Plus technique que le Data Scientist, plus ML que le Software Engineer. Salaire France 2026 : 45-140 K€.
Voir aussi : MLOps, Data Scientist
Certifications (RNCP, CPF)
10 termesAlternance
Dispositif combinant formation en centre et travail salarié en entreprise.
L'alternance désigne deux contrats : (1) contrat d'apprentissage (16-29 ans, diplôme initial, 80% des cas en IA/data), (2) contrat de professionnalisation (tous âges, reconversion). Rythme typique en IA : 2 jours école / 3 jours entreprise. Formation 100% financée par l'OPCO, salaire entre 43% et 100% du SMIC selon âge et année. Insertion professionnelle après alternance : 92% sous 3 mois en IA.
Voir aussi : OPCO (Opérateur de Compétences), Contrat d'apprentissage, Contrat de professionnalisation
Contrat d'apprentissage
Contrat en alternance pour les 16-29 ans visant l'obtention d'un diplôme ou titre RNCP.
Statut salarié avec rémunération en % du SMIC selon âge et année. Durée 1 à 3 ans. Financé à 100% par l'OPCO de l'entreprise d'accueil. Prime d'État de 6 000 € à l'employeur pour chaque contrat signé. En IA : taux d'insertion 92% sous 3 mois après diplôme.
Voir aussi : Alternance, OPCO (Opérateur de Compétences), RNCP (Répertoire National des Certifications Professionnelles)
Contrat de professionnalisation
Contrat en alternance accessible à tous âges, priorité aux reconversions.
Différent de l'apprentissage : pas de limite d'âge, priorité à la requalification. Salaire minimum 55% du SMIC pour 21-25 ans, 100% pour 26 ans et +. Durée 6-24 mois. Financé par OPCO. Excellent dispositif pour les reconversions IA après 30 ans quand l'apprentissage n'est plus accessible.
Voir aussi : Alternance, Contrat d'apprentissage, OPCO (Opérateur de Compétences)
CPF (Compte Personnel de Formation)
Compte individuel permettant à tout salarié français de financer des formations certifiantes.
Le CPF accumule 500 € par an de droits à la formation (800 € pour les non-qualifiés), plafonné à 5 000 € (8 000 €). Utilisable à l'initiative du salarié, sans accord employeur. Finançable uniquement pour des formations éligibles (RNCP ou certifications reconnues). Accès via moncompteformation.gouv.fr avec FranceConnect. Abondements possibles par l'entreprise, France Travail, régions.
Voir aussi : RNCP (Répertoire National des Certifications Professionnelles), Qualiopi, OPCO (Opérateur de Compétences)
France Compétences
Organisme public qui gère le RNCP et régule la formation professionnelle en France.
Créée en 2019, France Compétences remplace 4 anciens organismes (CNCP, COPANEF, FPSPP, CNEFP). Missions : gérer le RNCP, piloter le CPF, financer via contributions entreprises, répartir les fonds aux OPCO. Site de référence : francecompetences.fr — à utiliser pour vérifier tout titre RNCP.
Voir aussi : RNCP (Répertoire National des Certifications Professionnelles), Qualiopi, CPF (Compte Personnel de Formation)
France Travail (ex Pôle Emploi)
Opérateur public de l'emploi depuis 2024, finance les formations de demandeurs d'emploi.
Succession de Pôle Emploi en janvier 2024. Dispositifs de financement formation IA/data : AIF (Aide Individuelle à la Formation), POEI (Préparation Opérationnelle à l'Emploi Individuelle), PRF (Programme Régional de Formation). Les filières IA/data font partie des 15 filières en tension prioritaires pour financement.
Voir aussi : CPF (Compte Personnel de Formation), OPCO (Opérateur de Compétences)
OPCO (Opérateur de Compétences)
Organisme paritaire qui finance les formations dans le cadre de la formation professionnelle en entreprise.
Les OPCO (11 existent, sectoriels : Atlas, Akto, Uniformation, etc.) financent les formations des salariés d'entreprises de moins de 50 salariés, ainsi que les contrats d'apprentissage et de professionnalisation. Ils sont financés par une contribution obligatoire des entreprises (0,55% ou 1% de la masse salariale). L'OPCO est l'interlocuteur clé pour financer une alternance IA : l'entreprise paie zéro, l'OPCO couvre tout.
Voir aussi : Alternance, CPF (Compte Personnel de Formation), France Compétences
Qualiopi
Certification qualité obligatoire pour les organismes de formation finançés par fonds publics.
Depuis janvier 2022, tout organisme de formation voulant accéder aux financements publics (CPF, OPCO, France Travail) doit être certifié Qualiopi. Évaluation sur 32 critères (information, programmes, adaptation, formateurs, évaluation, amélioration continue). Certification de 3 ans renouvelable, délivrée par des organismes certificateurs agréés (AFNOR, COFRAC, etc.). Qualiopi est complémentaire au RNCP.
Voir aussi : RNCP (Répertoire National des Certifications Professionnelles), CPF (Compte Personnel de Formation), France Compétences
RNCP (Répertoire National des Certifications Professionnelles)
Base officielle française listant les certifications professionnelles reconnues par l'État.
Le RNCP est géré par France Compétences (organisme public). Une certification enregistrée au RNCP est reconnue nationalement et ouvre droit au financement CPF / OPCO / France Travail. Niveaux 3 (CAP) à 8 (doctorat). En IA/data : niveaux 6 (Bachelor, Bac+3) et 7 (Mastère, Bac+5) sont les plus courants. Renouvellement tous les 3-5 ans. Vérification sur francecompetences.fr.
Voir aussi : Qualiopi, CPF (Compte Personnel de Formation), France Compétences
VAE (Validation des Acquis de l'Expérience)
Dispositif permettant d'obtenir un titre RNCP via son expérience professionnelle.
Depuis 2023, seulement 1 an d'expérience en lien avec le titre visé est requis (contre 3 ans auparavant). Procédure : dossier de preuves, jury de VAE, éventuellement actions complémentaires. Coût : 2 000-5 000 €, souvent financé par CPF. Voie utile pour autodidactes data/IA avec expérience pratique mais sans diplôme formel.
Voir aussi : RNCP (Répertoire National des Certifications Professionnelles), CPF (Compte Personnel de Formation)
Envie de maîtriser ces concepts en profondeur ?
AI2 forme à l'intelligence artificielle depuis 2020. Bachelor IA (RNCP 6), Mastère IA (RNCP 7), bootcamps, formations courtes. Finançable CPF / OPCO / alternance à 0 €.
Citation recommandée : « Glossaire IA & Data 2026, AI2, https://ecole-artificielle-intelligence.com/glossaire-ia »
Licence : reproduction libre avec citation de la source.
Pour aller plus loin : Guide alternance IA · Guide RNCP IA · Baromètre salaires 2026 · Tous les métiers IA