Après avoir quitté Meta en novembre 2025, Yann LeCun préside Logical Intelligence, une startup fondée par la physicienne Eve Bodnia. Leur produit phare, Kona 1.0, incarne une approche mathématiquement différente des modèles basés sur l’énergie (EBM), conçue comme alternative structurelle aux LLM. Résultat : Kona résout les Sudoku sans hallucinations et plus rapidement que GPT-5. C’est le début d’un test empirique sérieux sur la question de savoir si la prédiction séquentielle reste l’unique voie vers l’intelligence générale.
- Yann LeCun a quitté Meta en novembre 2025 pour fonder AMI Labs et présider Logical Intelligence
- Kona 1.0 utilise les modèles basés sur l’énergie (EBM) pour résoudre des problèmes sans hallucinations
- Kona résout les Sudoku plus vite que GPT-5 et Gemini avec seulement 200 millions de paramètres
- Les pilotes commerciaux sont prévus pour Q1 2026 dans l’énergie, la fabrication et la robotique
- La vision est modulaire : EBM pour le raisonnement logique, LLM pour le langage naturel
La bifurcation de LeCun : quitter Meta pour construire l'alternative
Yann LeCun énonce sa critique sans détour. Selon une récente interview à Wired, Silicon Valley souffre d’un « problème de groupthink » : l’hypothèse partagée est que l’augmentation des paramètres et des données suffit à atteindre l’intelligence générale. LeCun appelle cette position d’être « LLM-pilled ».
Ce n’est pas une position nouvelle. Depuis au moins deux ans, le chercheur promeut une approche différente, fondée sur les modèles du monde physique et les modèles basés sur l’énergie — une architecture mathématique sans équivalent dans les LLM.
Chez Meta, LeCun a lancé JEPA (Joint-Embedding Predictive Architecture), tentative d’incarner cette vision. Mais la pesanteur interne de l’orthodoxie LLM, conjuguée à des contraintes organisationnelles, a limité son espace de manœuvre. Son départ en novembre 2025 n’était pas un licenciement ; c’était une bifurcation stratégique.
Il a d’abord fondé AMI Labs, un laboratoire de recherche indépendant à San Francisco. En parallèle, il s’est rapproché de Logical Intelligence, apportant sa crédibilité scientifique (et son pouvoir de conviction) au projet commercial. Le calcul est transparent : tester à grande échelle une hypothèse rivale de celle que Meta a convergemment adoptée.
Les modèles basés sur l'énergie : raisonnement par contraintes
Pour saisir Kona 1.0, il faut comprendre ce qui le différencie en essence d’un LLM.
Le LLM : prédiction séquentielle
Les LLM fonctionnent par prédiction séquentielle. Ils devinent le mot probable suivant, puis le suivant, et ainsi de suite. Cette logique les enferme sur un chemin unique : une fois un choix fait, il ne peut être révoqué.
L'EBM : minimisation d'énergie
Les modèles basés sur l’énergie opèrent sur un principe mathématique distinct :
- Au lieu de générer une réponse mot par mot, ils apprennent un ensemble de règles — les contraintes du problème.
- Ensuite, ils trouvent la solution qui minimise une fonction énergétique, une mesure mathématique de l’écart par rapport aux règles.
Eve Bodnia l’explique ainsi : un LLM suit un chemin fixe vers le sommet sans possibilité de retour. Un EBM voit la carte entière du terrain, explore différentes routes, mesure les violations de règles et s’auto-corrige en temps réel.
Illustration : le Sudoku
Sur une grille de Sudoku :
- Kona apprend les règles fondamentales (chaque chiffre n’apparaît qu’une fois par ligne, colonne et carré 3×3).
- Face à une grille partiellement remplie, il cherche la complétion qui respecte toutes les contraintes.
- Si un choix viole une règle, la fonction énergétique augmente — le système recule.
- Aucun chiffre aléatoire, aucune hallucination. La solution émerge des règles logiques, non du pari statistique.
Un responsable de Logical Intelligence le formule ainsi : « Plus un EBM s’écarte des règles, plus l’énergie augmente, ce qui prévient les hallucinations des LLMs. »
Kona 1.0 : premier produit commercial d'EBM
Spécifications
Logical Intelligence a lancé Kona 1.0 le 21 janvier 2026. Les spécifications reflètent une philosophie radicalement différente du modèle d’accumulation de paramètres :
- Moins de 200 millions de paramètres (contre des centaines de milliards pour GPT-5 ou Gemini Ultra)
- S’exécute sur un seul GPU Nvidia H100
- Consommation énergétique radicalement inférieure
Résultats empiriques
Sudoku
Kona a résolu des grilles test nettement plus vite que GPT-5, Gemini et Claude. Il importe de noter que les LLMs ont été volontairement limités pour empêcher les solutions par brute force. La comparaison mesure donc la précision et la rapidité sous contrainte, non la vitesse brute. Sur une tâche structurée où les règles sont explicites, un système conçu pour la minimisation énergétique surpasse un système conçu pour générer du texte probable. C’est significatif, mais non une preuve de supériorité universelle.
Putnam
En décembre 2025, Kona a atteint 76% de précision sur les problèmes mathématiques du Putnam, un benchmark exigeant. L’absence de comparaison directe avec d’autres modèles rend cependant l’interprétation délicate.
Prochaines démonstrations
Logical Intelligence prépare d’autres benchmarks : le chess et le Go, domaines où les règles sont absolues et les conflits détectables — exactement où les EBMs possèdent un avantage théorique.
L'équipe : accumulation de crédibilités établies
| Rôle | Nom | Distinction |
|---|---|---|
| Président du conseil scientifique | Yann LeCun | Turing Award 2018 ; créateur du deep learning convolutionnel |
| Directeur des mathématiques | Michael Freedman | Médaille Fields |
| Directeur de l’IA | Vlad Isenbaev | Ex-Nuro et Cruise (robotique de la physique) |
| Directeur stratégique | Patrick Hillmann | Ex-Binance, GE (infrastructure lourde) |
| Fondatrice et PDG | Eve Bodnia | Physicienne quantique (systèmes énergétiques) |
Ce n’est pas le roster d’une startup sans antécédent. Des figures établies misent leur réputation sur cette approche.
Modulaire, non monolithique : le modèle de coexistence
Il est tentant de voir Logical Intelligence comme un affrontement direct aux LLMs. Ce serait une lecture incomplète.
La vision articulée par LeCun et Bodnia est modulaire : l’AGI ne sera pas un système monolithique, mais un écosystème de composants spécialisés :
- EBM : raisonnement logique (trouver des solutions sous contraintes explicites)
- LLM : langage naturel et génération créative
- World models : robotique et décisions basées sur la prédiction spatiale
Cette architecture place Logical Intelligence et AMI Labs en complémentarité, non en substitution. Elle diversifie les paris sur l’AGI plutôt que de miser tout sur un seul cheval.
Les secteurs de déploiement : où l'exactitude est non-négociable
Logical Intelligence ne vise pas le marché grand public des chatbots. Les pilotes prévus pour Q1 2026 ciblent des domaines où une erreur n’est pas un désagrément, mais un risque opérationnel majeur.
Énergie
Un modèle qui prédit mal la stabilité d’un réseau électrique provoque des pannes régionales.
Fabrication avancée
Une erreur sur les tolérances d’une pièce aerospace introduit un défaut de sécurité.
Vérification de semiconducteurs
Une erreur logique en conception ne se corrige pas après la fabrication en masse.
Robotique
Un bras qui viole les contraintes physiques provoque un accident.
Ces domaines constituent précisément le terrain où les EBMs possèdent un avantage structurel : ils ne peuvent violer les règles sans signaler le système. Pas de dérive silencieuse.
L'affirmation AGI : lecture critique requise
Eve Bodnia a déclaré que Kona montre « les premiers signes crédibles d’AGI » — capacité à raisonner dans tous les domaines, à apprendre de l’erreur et à généraliser sans ré-entraînement spécifique à chaque tâche.
Cette affirmation mérite un encadrement rigoureux. C’est une revendication interne, pas un consensus scientifique. Aucun papier peer-review ne la valide. Aucune compétition scientifique indépendante n’arbitre la question.
Ce qui peut être établi sans débat : Kona démontre la capacité à apprendre des règles et à les appliquer sur des domaines structurés. C’est une compétence attendue d’une intelligence générale.
Ce qui reste incertain : la généralisation — la capacité de Kona à raisonner face à des problèmes imprévisibles, sous contraintes jamais vues. Le Sudoku, le chess, le Go sont des environnements fermés. On ignore comment Kona se comporterait face à un problème sans règles explicites, ou où l’ambiguïté est constitutive.
Pourquoi maintenant ? Convergence de deux facteurs
Une architecture EBM est connue depuis 15 ans (LeCun a publié sur le sujet en 2006). Pourquoi devient-elle viable en 2026 ?
1. Les limites du scaling LLM
GPT-5, Gemini Ultra et leurs successeurs exigent des milliers de GPUs, une consommation énergétique massive et des investissements de dizaines de milliards. Ce modèle atteint ses limites physiques et économiques.
2. Les défauts incontournables des LLM
Les hallucinations, l’incapacité à certifier la justesse, la dérive stochastique sur les tâches structurées sont inhérents à l’architecture. Les secteurs critiques (finance, défense, santé) exigent des garanties qu’aucun LLM ne peut donner.
Une approche alternative qui échange flexibilité contre certitude devient attrayante pour ces niches — même si elle n’est pas « intelligente » au sens de curiosité générale ou de plasticité adaptative.
Les questions ouvertes : le test réel de Q1 2026
Logical Intelligence lancera ses pilotes au premier trimestre 2026. C’est alors que les hypothèses théoriques rencontrent le terrain opérationnel.
Généralisation au-delà des jeux logiques
Kona peut-elle s’étendre au-delà des Sudoku et du chess ? Les tâches réelles d’ingénierie et d’optimisation rarement définis avec telle clarté. Comment encoder les règles face à l’ambiguïté ?
Coûts en conditions opérationnelles
Kona consomme moins de compute en théorie. Mais l’entraînement, le déploiement, la vérification des résultats et l’intégration dans les workflows existants demeurent inexplorés en conditions réelles.
Apprentissage adaptatif
Comment le système apprend-il de nouvelles règles sans ré-entraînement complet ? Un EBM formé sur les Sudoku peut-il généraliser au chess ? La modularité conceptuelle se traduira-t-elle en flexibilité pratique ?
L'enjeu pour le débat AGI : un test empirique enfin rigoureux
L’émergence de Logical Intelligence ne résout pas la question centrale : les LLMs à l’échelle suffiront-ils pour atteindre l’AGI, ou faut-il une architecture structurellement différente ?
Elle crée pour la première fois un test empirique en conditions réelles.
Deux trajectoires possibles en 2027
Si Kona et ses extensions démontrent qu’une approche par minimisation énergétique peut résoudre des problèmes réels en énergie, fabrication et robotique, et généraliser au-delà du Sudoku, c’est un datapoint majeur en faveur des EBMs.
Si, au contraire, Kona demeure enfermée dans les domaines ultra-structurés (jeux, vérification formelle) tandis que les LLMs progressent sur les tâches ambiguës et mal définies (le quotidien humain), c’est une refonte partielle de la thèse de LeCun.
La probabilité de coexistence
Ni l’un ni l’autre n’a besoin de « tuer » l’autre. Les deux peuvent dominer leur niche respectif. Mais le test de 2026–2027 éclairera enfin le débat avec des données réelles, loin de la théorie abstraite.
FAQ
Qu'est-ce qu'un modèle basé sur l'énergie (EBM) et comment diffère-t-il d'un LLM ?
Les EBM apprennent un ensemble de règles et trouvent des solutions en minimisant une fonction énergétique, tandis que les LLM devinent le prochain mot de manière séquentielle. Les EBM ne génèrent pas de réponses sans fondement logique.
Pourquoi Yann LeCun a-t-il quitté Meta pour Logical Intelligence ?
LeCun critique l’orthodoxie LLM de Silicon Valley depuis deux ans. Chez Meta, il manquait d’espace pour tester sa vision alternative. Son départ permet de valider empiriquement son approche via AMI Labs et Logical Intelligence.
Kona 1.0 peut-elle remplacer les LLM dans tous les domaines ?
Non. La vision est modulaire : Kona vise le raisonnement sous contraintes explicites (énergie, fabrication, robotique), tandis que les LLM resteraient dominants pour le langage naturel et la génération créative.
Quels résultats Kona 1.0 a-t-elle démontrés ?
Kona résout les Sudoku plus vite que GPT-5 et Gemini, atteint 76% de précision sur le Putnam, et s’exécute sur un seul GPU H100 avec moins de 200 millions de paramètres.
Quand Logical Intelligence validera-t-elle sa technologie en conditions réelles ?
Les pilotes sont prévus pour Q1 2026 dans des secteurs critiques : énergie, fabrication avancée, vérification de semiconducteurs, robotique.
Sources
- https://www.wired.com/story/logical-intelligence-yann-lecun-startup-chart-new-course-agi/
- https://www.ft.com/content/157bb0e3-9d6c-47ac-afc5-6944981e10ef
- https://www.businesswire.com/news/home/20260120751310/en/Logical-Intelligence-Introduces-First-Energy-Based-Reasoning-AI-Model-Signals-Early-Steps-Toward-AGI-Adds-Yann-LeCun-and-Patrick-Hillmann-to-Leadership
Leave a Reply