Histoire de l'IA

📅 Chronologie : De 1943 à aujourd'hui

Découvrez l'évolution fascinante de l'Intelligence Artificielle, des premiers neurones artificiels aux LLM modernes. Chaque étape a contribué à la révolution que nous vivons aujourd'hui.

Partager :
Légende des catégories
FondationsRéseaux de neuronesApprentissage automatiqueDeep LearningTransformersLLM & IA Générative
1943
Neurone artificiel
Première modélisation mathématique d'un neurone artificiel, posant les bases théoriques des réseaux de neurones.

💡 Innovation clé :

Modèle binaire du neurone (activation tout-ou-rien)

👨‍🔬 Chercheurs :

Warren McCullochWalter Pitts
1950
Test de Turing
Alan Turing propose le test de Turing pour évaluer l'intelligence d'une machine, définissant un critère fondamental de l'IA.

💡 Innovation clé :

Concept d'intelligence artificielle mesurable

🎯 Impact :

Fondation philosophique de l'IA moderne

👨‍🔬 Chercheurs :

Alan Turing
1956
Naissance de l'IA
Conférence de Dartmouth où le terme "Intelligence Artificielle" est officiellement créé. Début de l'IA en tant que discipline scientifique.

💡 Innovation clé :

Création du domaine de l'IA

🎯 Impact :

Lancement officiel de la recherche en IA

👨‍🔬 Chercheurs :

John McCarthyMarvin MinskyClaude ShannonNathaniel Rochester
1958
Perceptron
Premier algorithme d'apprentissage automatique capable d'apprendre à classifier des données. Révolution dans la reconnaissance de formes.

💡 Innovation clé :

Apprentissage par ajustement de poids

🎯 Impact :

Premier réseau de neurones fonctionnel

👨‍🔬 Chercheurs :

Frank Rosenblatt
1969
Limitations du Perceptron
Minsky et Papert démontrent les limites mathématiques du perceptron (incapacité à résoudre XOR). Début du premier "hiver de l'IA".

💡 Innovation clé :

Analyse critique des limites théoriques

🎯 Impact :

Ralentissement de la recherche pendant 10 ans

👨‍🔬 Chercheurs :

Marvin MinskySeymour Papert
1974-1980
Premier hiver de l'IA
Réduction drastique des financements en IA suite aux promesses non tenues. Les chercheurs se tournent vers d'autres domaines.

💡 Innovation clé :

Période de réflexion et de consolidation

👨‍🔬 Chercheurs :

Communauté scientifique
1980
Réseaux de neurones multicouches
Développement des réseaux multicouches avec rétropropagation du gradient, dépassant les limites du perceptron simple.

💡 Innovation clé :

Backpropagation (rétropropagation)

🎯 Impact :

Permet l'apprentissage de fonctions non-linéaires

👨‍🔬 Chercheurs :

Paul WerbosDavid RumelhartGeoffrey Hinton
1986
Popularisation de la rétropropagation
Publication majeure démocratisant l'algorithme de backpropagation, relançant l'intérêt pour les réseaux de neurones.

💡 Innovation clé :

Algorithme d'entraînement efficace

🎯 Impact :

Renaissance des réseaux de neurones

👨‍🔬 Chercheurs :

David RumelhartGeoffrey HintonRonald Williams
1989
Backpropagation appliquée aux CNN
Yann LeCun applique avec succès la backpropagation aux réseaux de neurones convolutifs, ouvrant la voie au deep learning moderne pour la vision.

💡 Innovation clé :

Backpropagation + Convolutions

🎯 Impact :

Fondation du deep learning pour la vision

👨‍🔬 Chercheurs :

Yann LeCun
1990
Réseaux de neurones récurrents (RNN)
Développement des RNN capables de traiter des séquences de données en conservant une mémoire des états précédents.

💡 Innovation clé :

Mémoire temporelle dans les réseaux

🎯 Impact :

Traitement de séquences (texte, son)

👨‍🔬 Chercheurs :

Jeffrey ElmanMichael Jordan
1997
LSTM (Long Short-Term Memory)
Hochreiter et Schmidhuber inventent les LSTM pour résoudre le problème de la disparition du gradient dans les RNN longs.

💡 Innovation clé :

Mémoire à long terme dans les RNN

🎯 Impact :

Permet l'apprentissage sur longues séquences

👨‍🔬 Chercheurs :

Sepp HochreiterJürgen Schmidhuber
1998
LeNet-5 - Premier CNN de production
Yann LeCun déploie LeNet-5 pour la reconnaissance de chiffres manuscrits (MNIST). Utilisé par les banques américaines pour lire 10-20% des chèques.

💡 Innovation clé :

Premier CNN déployé en production

🎯 Impact :

Validation industrielle des CNN (99.2% de précision)

👨‍🔬 Chercheurs :

Yann LeCunLéon BottouYoshua BengioPatrick Haffner
1997
Deep Blue bat Kasparov
L'ordinateur Deep Blue d'IBM bat le champion du monde d'échecs Garry Kasparov, démontrant la puissance de l'IA dans les jeux stratégiques.

💡 Innovation clé :

IA spécialisée surhumaine

🎯 Impact :

Premier succès médiatique majeur de l'IA

👨‍🔬 Chercheurs :

Équipe IBM
2006
Deep Learning Renaissance
Geoffrey Hinton relance le deep learning avec les réseaux de croyance profonds (DBN) et l'apprentissage non supervisé par couches.

💡 Innovation clé :

Pré-entraînement non supervisé

🎯 Impact :

Début de l'ère du deep learning moderne

👨‍🔬 Chercheurs :

Geoffrey HintonRuslan Salakhutdinov
2009
ImageNet
Création de la base de données ImageNet avec 14 millions d'images annotées, permettant l'entraînement de modèles de vision à grande échelle.

💡 Innovation clé :

Dataset massif pour la vision

🎯 Impact :

Catalyseur de la révolution deep learning

👨‍🔬 Chercheurs :

Fei-Fei Liéquipe Stanford
2012
AlexNet - Révolution ImageNet
AlexNet remporte ImageNet avec une marge écrasante grâce au deep learning et aux GPU, déclenchant l'explosion du deep learning.

💡 Innovation clé :

CNN profond entraîné sur GPU

🎯 Impact :

Début de l'adoption massive du deep learning

👨‍🔬 Chercheurs :

Alex KrizhevskyIlya SutskeverGeoffrey Hinton
2013
Yann LeCun rejoint Meta (Facebook)
Yann LeCun devient directeur de l'IA chez Facebook (Meta), créant le laboratoire Fair (Facebook AI Research). Marquant l'engagement massif des GAFAM dans l'IA.

💡 Innovation clé :

Recherche IA industrielle à grande échelle

🎯 Impact :

Accélération de la recherche en deep learning

👨‍🔬 Chercheurs :

Yann LeCun
2014
GRU (Gated Recurrent Unit)
Cho et al. proposent les GRU, une variante simplifiée des LSTM tout aussi performante pour le traitement séquentiel.

💡 Innovation clé :

Architecture RNN simplifiée

🎯 Impact :

Alternative efficace aux LSTM

👨‍🔬 Chercheurs :

Kyunghyun ChoYoshua Bengio
2014
GANs (Generative Adversarial Networks)
Ian Goodfellow invente les GANs, permettant de générer des images réalistes via un système adversarial (générateur vs discriminateur).

💡 Innovation clé :

Apprentissage génératif adversarial

🎯 Impact :

Révolution dans la génération d'images

👨‍🔬 Chercheurs :

Ian GoodfellowYoshua Bengio
2015
ResNet - Réseaux très profonds
Microsoft Research introduit ResNet avec les connexions résiduelles, permettant d'entraîner des réseaux de 152 couches et plus.

💡 Innovation clé :

Connexions résiduelles (skip connections)

🎯 Impact :

Permet des réseaux ultra-profonds

👨‍🔬 Chercheurs :

Kaiming Heéquipe Microsoft Research
2016
AlphaGo bat Lee Sedol
AlphaGo de DeepMind bat le champion du monde de Go Lee Sedol 4-1, exploit considéré impossible quelques années auparavant.

💡 Innovation clé :

Deep RL + Monte Carlo Tree Search

🎯 Impact :

Démonstration spectaculaire de l'IA moderne

👨‍🔬 Chercheurs :

Équipe DeepMindDavid SilverDemis Hassabis
2017
🚀 TRANSFORMERS - Attention is All You Need
Google Brain publie l'architecture Transformer basée uniquement sur l'attention, révolutionnant le traitement du langage naturel.

💡 Innovation clé :

Mécanisme d'attention self-attention, Multi-Head Attention

🎯 Impact :

Fondation de tous les LLM modernes

👨‍🔬 Chercheurs :

Ashish VaswaniNoam ShazeerNiki ParmarJakob UszkoreitLlion JonesAidan GomezLukasz KaiserIllia Polosukhin
2018
BERT - Bidirectional Transformers
Google AI publie BERT, premier modèle Transformer bidirectionnel pré-entraîné, établissant de nouveaux records sur 11 tâches NLP.

💡 Innovation clé :

Pré-entraînement bidirectionnel masqué

🎯 Impact :

Nouveau standard pour la compréhension du langage

👨‍🔬 Chercheurs :

Jacob DevlinMing-Wei ChangKenton LeeKristina Toutanova
2018
Prix Turing - Les "Godfathers of AI"
Yann LeCun, Geoffrey Hinton et Yoshua Bengio reçoivent le prix Turing (Nobel de l'informatique) pour leurs contributions au deep learning.

💡 Innovation clé :

Reconnaissance mondiale du deep learning

🎯 Impact :

Consécration des pionniers du deep learning

👨‍🔬 Chercheurs :

Yann LeCunGeoffrey HintonYoshua Bengio
2018
GPT-1 (Generative Pre-trained Transformer)
OpenAI introduit GPT-1 avec 117M de paramètres, démontrant l'efficacité du pré-entraînement génératif pour le NLP.

💡 Innovation clé :

Pré-entraînement génératif unidirectionnel

🎯 Impact :

Début de la lignée GPT

👨‍🔬 Chercheurs :

Alec RadfordKarthik NarasimhanTim SalimansIlya Sutskever
2019
GPT-2 - 1.5 milliards de paramètres
OpenAI publie GPT-2 (1.5B paramètres), capable de générer du texte cohérent sur plusieurs paragraphes. Initialement retenu par crainte d'abus.

💡 Innovation clé :

Scaling des Transformers génératifs

🎯 Impact :

Démonstration du potentiel des grands modèles

👨‍🔬 Chercheurs :

Alec RadfordJeffrey WuRewon ChildDavid LuanDario AmodeiIlya Sutskever
2019
T5 - Text-to-Text Transfer Transformer
Google Research propose T5, unifiant toutes les tâches NLP dans un format texte-vers-texte unique.

💡 Innovation clé :

Framework unifié text-to-text

🎯 Impact :

Simplification de l'entraînement multi-tâches

👨‍🔬 Chercheurs :

Colin RaffelNoam Shazeeréquipe Google Research
2020
GPT-3 - 175 milliards de paramètres
OpenAI dévoile GPT-3 avec 175B paramètres, démontrant des capacités émergentes de few-shot learning sans fine-tuning spécifique.

💡 Innovation clé :

Few-shot learning à grande échelle

🎯 Impact :

Capacités émergentes spectaculaires

👨‍🔬 Chercheurs :

Tom BrownBenjamin MannNick Ryderéquipe OpenAI
2020
Vision Transformer (ViT)
Google Research applique les Transformers à la vision par ordinateur, surpassant les CNN sur ImageNet.

💡 Innovation clé :

Transformers pour la vision

🎯 Impact :

Extension des Transformers au-delà du NLP

👨‍🔬 Chercheurs :

Alexey Dosovitskiyéquipe Google Research
2021
DALL-E - Génération d'images par texte
OpenAI présente DALL-E, capable de générer des images à partir de descriptions textuelles grâce aux Transformers.

💡 Innovation clé :

Transformers multimodaux texte→image

🎯 Impact :

Naissance de l'IA générative d'images

👨‍🔬 Chercheurs :

Aditya Rameshéquipe OpenAI
2021
Codex & GitHub Copilot
OpenAI lance Codex (base de GitHub Copilot), un LLM spécialisé dans la génération de code à partir de descriptions en langage naturel.

💡 Innovation clé :

LLM spécialisé pour le code

🎯 Impact :

Révolution dans l'assistance au développement

👨‍🔬 Chercheurs :

Mark Chenéquipe OpenAI
2021
AlphaFold 2 - Structure des protéines
DeepMind résout le problème du repliement des protéines avec AlphaFold 2, utilisant des Transformers pour prédire les structures 3D.

💡 Innovation clé :

Transformers pour la biologie structurale

🎯 Impact :

Révolution en biologie et médecine

👨‍🔬 Chercheurs :

John JumperDemis Hassabiséquipe DeepMind
2022
ChatGPT - Démocratisation des LLM
OpenAI lance ChatGPT (basé sur GPT-3.5 avec RLHF), atteignant 1 million d'utilisateurs en 5 jours. Explosion médiatique de l'IA générative.

💡 Innovation clé :

RLHF (Reinforcement Learning from Human Feedback)

🎯 Impact :

Adoption massive du grand public

👨‍🔬 Chercheurs :

Équipe OpenAI
2022
Stable Diffusion - IA générative open-source
Stability AI publie Stable Diffusion en open-source, démocratisant la génération d'images par IA.

💡 Innovation clé :

Diffusion models open-source

🎯 Impact :

Démocratisation de l'IA générative

👨‍🔬 Chercheurs :

Robin Rombachéquipe Stability AI
2023
GPT-4 - Modèle multimodal
OpenAI lance GPT-4, premier LLM multimodal grand public capable de traiter texte et images. Performances surhumaines sur de nombreux benchmarks.

💡 Innovation clé :

Multimodalité texte + vision à grande échelle

🎯 Impact :

Nouveau palier de capacités

👨‍🔬 Chercheurs :

Équipe OpenAI
2023
LLaMA - Meta AI open-source
Meta AI publie LLaMA (7B à 65B paramètres) en open-source, permettant à la communauté de recherche d'accéder à des LLM performants.

💡 Innovation clé :

LLM performants et accessibles

🎯 Impact :

Accélération de la recherche open-source

👨‍🔬 Chercheurs :

Hugo Touvronéquipe Meta AI
2023
I-JEPA - Implémentation de la vision LeCun
Meta AI publie I-JEPA (Image-based JEPA), première implémentation concrète de la vision de Yann LeCun pour l'apprentissage auto-supervisé basé sur la prédiction d'images.

💡 Innovation clé :

Apprentissage par prédiction dans l'espace latent

🎯 Impact :

Alternative aux méthodes génératives classiques

👨‍🔬 Chercheurs :

Yann LeCunéquipe Meta AI
2023
Claude (Anthropic)
Anthropic lance Claude, LLM axé sur la sécurité et l'alignement avec Constitutional AI, concurrent direct de GPT-4.

💡 Innovation clé :

Constitutional AI pour l'alignement

🎯 Impact :

Focus sur la sécurité de l'IA

👨‍🔬 Chercheurs :

Dario AmodeiDaniela Amodeiéquipe Anthropic
2023
Gemini (Google DeepMind)
Google DeepMind dévoile Gemini, famille de modèles multimodaux (Ultra, Pro, Nano) conçus nativement pour la multimodalité.

💡 Innovation clé :

Architecture multimodale native

🎯 Impact :

Compétition intensifiée dans les LLM

👨‍🔬 Chercheurs :

Équipe Google DeepMind
2024
GPT-4o & Claude 3.5 Sonnet
OpenAI lance GPT-4o (omni) avec capacités audio/vidéo en temps réel. Anthropic répond avec Claude 3.5 Sonnet, établissant de nouveaux records.

💡 Innovation clé :

Multimodalité temps réel (audio/vidéo)

🎯 Impact :

Vers des assistants vraiment multimodaux

👨‍🔬 Chercheurs :

Équipes OpenAI & Anthropic
2023
Mistral 7B - Excellence française
Mistral AI (startup française) lance Mistral 7B, modèle open-source de 7B paramètres surpassant LLaMA 2 13B sur tous les benchmarks.

💡 Innovation clé :

Sliding Window Attention, optimisation extrême

🎯 Impact :

Première licorne française de l'IA générative

👨‍🔬 Chercheurs :

Équipe Mistral AIArthur MenschGuillaume LampleTimothée Lacroix
2023
Mixtral 8x7B - Mixture of Experts
Mistral AI lance Mixtral 8x7B, architecture MoE avec 8 experts de 7B paramètres chacun. Seuls 2 experts actifs par token, offrant performances 70B pour coût 13B.

💡 Innovation clé :

Sparse Mixture of Experts (SMoE) efficace

🎯 Impact :

Démocratisation des modèles massifs

👨‍🔬 Chercheurs :

Équipe Mistral AI
2022
JEPA - Vision de Yann LeCun
Yann LeCun propose JEPA (Joint Embedding Predictive Architecture), une approche radicalement différente des LLM basée sur la compréhension du monde physique via images/vidéos.

💡 Innovation clé :

Apprentissage auto-supervisé par prédiction visuelle

🎯 Impact :

Critique des LLM, vision alternative pour l'IA

👨‍🔬 Chercheurs :

Yann LeCunéquipe Meta AI
2023
Mamba - Post-Transformer Architecture
Albert Gu et Tri Dao introduisent Mamba, architecture basée sur les State Space Models (SSM) avec complexité linéaire O(n) au lieu de O(n²) pour l'attention.

💡 Innovation clé :

Selective State Space Models, complexité linéaire

🎯 Impact :

Alternative prometteuse aux Transformers

👨‍🔬 Chercheurs :

Albert GuTri Dao
2023
RWKV - Receptance Weighted Key Value
Bo Peng propose RWKV, architecture hybride RNN-Transformer avec inférence O(1) en mémoire. Déployé par Microsoft sur 1.5 milliard de machines Windows.

💡 Innovation clé :

Parallélisation pendant entraînement, inférence RNN

🎯 Impact :

Adoption industrielle massive (Microsoft Copilot)

👨‍🔬 Chercheurs :

Bo Peng
2023
Grok (xAI) - Elon Musk entre dans la course
xAI (Elon Musk) lance Grok, LLM entraîné avec accès en temps réel à X (Twitter). Ton humoristique et moins censuré.

💡 Innovation clé :

Intégration temps réel avec réseaux sociaux

🎯 Impact :

Diversification des acteurs LLM

👨‍🔬 Chercheurs :

Équipe xAI
2024
Claude 3 - Opus, Sonnet, Haiku
Anthropic lance Claude 3 avec 3 variantes (Opus, Sonnet, Haiku). Claude 3 Opus surpasse GPT-4 sur plusieurs benchmarks. Fenêtre de contexte 200K tokens.

💡 Innovation clé :

Constitutional AI avancé, contexte 200K

🎯 Impact :

Nouveau leader en sécurité et qualité

👨‍🔬 Chercheurs :

Équipe Anthropic
2024
Gemini 1.5 Pro - Contexte 1M tokens
Google lance Gemini 1.5 Pro avec fenêtre de contexte record de 1 million de tokens (puis 2M en expérimental). Peut traiter des films entiers.

💡 Innovation clé :

Architecture MoE optimisée, contexte ultra-long

🎯 Impact :

Nouvelle ère du contexte long

👨‍🔬 Chercheurs :

Équipe Google DeepMind
2024
LLaMA 3 - 405B paramètres open-source
Meta lance LLaMA 3 avec modèles 8B, 70B et 405B paramètres. LLaMA 3 405B rivalise avec GPT-4 et Claude 3 Opus tout en étant open-source.

💡 Innovation clé :

Plus grand modèle open-source, performances SOTA

🎯 Impact :

Démocratisation des LLM de pointe

👨‍🔬 Chercheurs :

Équipe Meta AI
2024
DeepSeek-V2 - MoE chinois performant
DeepSeek (Chine) lance DeepSeek-V2, architecture MoE 236B paramètres (21B actifs) rivalisant avec GPT-4 pour un coût d'entraînement de seulement $5.5M.

💡 Innovation clé :

Multi-head Latent Attention (MLA), MoE efficace

🎯 Impact :

Preuve que l'excellence LLM est accessible

👨‍🔬 Chercheurs :

Équipe DeepSeek
2024
GPT-4o & Claude 3.5 Sonnet
OpenAI lance GPT-4o (omni) avec capacités audio/vidéo en temps réel. Anthropic répond avec Claude 3.5 Sonnet, établissant de nouveaux records.

💡 Innovation clé :

Multimodalité temps réel (audio/vidéo)

🎯 Impact :

Vers des assistants vraiment multimodaux

👨‍🔬 Chercheurs :

Équipes OpenAI & Anthropic
2024
Sora - Génération de vidéos
OpenAI présente Sora, modèle de génération de vidéos réalistes jusqu'à 60 secondes à partir de descriptions textuelles.

💡 Innovation clé :

Diffusion Transformers pour la vidéo

🎯 Impact :

Extension de l'IA générative à la vidéo

👨‍🔬 Chercheurs :

Équipe OpenAI
2024
V-JEPA - JEPA pour la vidéo
Meta AI publie V-JEPA (Video-based JEPA), extension de l'approche JEPA aux vidéos. Apprentissage auto-supervisé sans annotations pour comprendre le monde physique.

💡 Innovation clé :

Prédiction vidéo dans l'espace latent

🎯 Impact :

Avancée vers l'IA comprenant le monde réel

👨‍🔬 Chercheurs :

Yann LeCunéquipe Meta AI
2024
xLSTM - Renaissance des LSTM
Sepp Hochreiter (inventeur des LSTM) propose xLSTM (extended LSTM), architecture moderne rivalisant avec les Transformers sur certaines tâches séquentielles.

💡 Innovation clé :

LSTM exponentiel, mémoire matricielle

🎯 Impact :

Retour des RNN dans la course

👨‍🔬 Chercheurs :

Sepp HochreiterÉquipe JKU Linz
2024
Jamba - Hybrid Mamba-Transformer
AI21 Labs lance Jamba, première architecture hybride production combinant Mamba (SSM) et Transformers avec MoE. Contexte 256K tokens.

💡 Innovation clé :

Hybridation Mamba-Transformer-MoE

🎯 Impact :

Validation de l'approche hybride

👨‍🔬 Chercheurs :

Équipe AI21 Labs
2025
Yann LeCun quitte Meta pour sa startup
Après 12 ans chez Meta, Yann LeCun annonce son départ fin 2025 pour créer sa propre startup. Objectif : développer des systèmes IA comprenant le monde physique, avec mémoire permanente et capacité de raisonnement complexe.

💡 Innovation clé :

IA pour la robotique et compréhension du monde réel

🎯 Impact :

Rupture avec l'approche LLM dominante

👨‍🔬 Chercheurs :

Yann LeCun
2025
Vers l'AGI ? - Course aux capacités surhumaines
Les LLM atteignent des capacités surhumaines dans de nombreux domaines (code, mathématiques, raisonnement). Débats intenses sur la proximité de l'AGI.

💡 Innovation clé :

Raisonnement avancé, agents autonomes

🎯 Impact :

Questions éthiques et sociétales majeures

👨‍🔬 Chercheurs :

Communauté IA mondiale

Site pédagogique sur les Transformers et l'Intelligence Artificielle

Créé pour rendre l'IA accessible à tous 🚀

Soyez le premier à donner votre avis !

Votre retour est précieux pour améliorer cette page. Partagez votre expérience ci-dessous.

Question 1 / 4Score : 0 / 0
Chronologie historique
Testez vos connaissances

En quelle année Alan Turing a-t-il proposé le Test de Turing ?

Votre avis compte ! 💡
Aidez-nous à améliorer cette page en partageant votre expérience. Votre retour est précieux pour rendre le contenu encore plus clair et utile.

Comment évaluez-vous cette page ?

🍪 Gestion des cookies
Nous utilisons des cookies pour améliorer votre expérience de navigation, analyser l'utilisation du site et vous proposer des contenus personnalisés. Vous pouvez accepter tous les cookies, les refuser ou personnaliser vos préférences.