Yann LeCun lève 890 millions pour une IA révolutionnant l’automatisation industrielle
L’intelligence artificielle s’apprête à franchir un cap décisif. Loin des projecteurs de ChatGPT et autres assistants conversationnels, une révolution silencieuse se prépare dans les laboratoires. Les world models promettent de transformer radicalement notre rapport aux machines, en leur donnant la capacité de comprendre et d’anticiper le monde physique plutôt que de simplement produire du texte.
Une levée de fonds colossale pour une IA d’un nouveau genre
En mars 2026, AMI Labs, la startup fondée par Yann LeCun, a réalisé une levée de fonds spectaculaire de près de 890 millions d’euros. L’entreprise était alors valorisée à 3 milliards d’euros avant cette opération financière.
Cette somme considérable vise à développer une intelligence artificielle radicalement différente des modèles linguistiques actuels. Selon Emmanuelle Guyot, Head of Data Science chez Hellowork, « la rupture annoncée est bien réelle, mais se jouera principalement hors des interfaces grand public ».
Une approche inspirée de l’apprentissage humain
Contrairement aux LLM qui ingèrent des quantités astronomiques de textes, les world models apprennent différemment. Yann LeCun défend une méthode inspirée du développement infantile : un modèle qui observe son environnement comme le ferait un bébé.
« On fait observer au modèle énormément d’images, de vidéos ou de situations, puis on lui demande d’anticiper ce qui vient ensuite, sans tout lui annoter à la main. Au fur et à mesure, l’IA apprend les conséquences des actions », explique Emmanuelle Guyot.
Cette architecture nécessite bien plus d’images et de vidéos que les LLM pour accéder véritablement à ce qui se passe physiquement dans le monde réel.
Quand la prédiction statistique rencontre la compréhension physique
Les limites des modèles linguistiques actuels
Les LLM comme ChatGPT, Claude ou Gemini excellent dans la production de texte plausible. Emmanuelle Guyot précise : « Les LLM sont vraiment construits pour donner le texte le plus probable, en termes de sens, qui peut répondre au prompt qu’on lui soumet. Ils ont été entraînés sur tellement de textes qui décrivent notre monde aujourd’hui que le résulat est assez convaincant. Mais ça s’arrête vraiment à l’étape de description. »
Ces modèles répondent à des besoins universels : résumer, rédiger, dialoguer. Ils font le lien avec l’humain mais restent cantonnés au domaine du langage.
L’ambition des world models
Les world models poursuivent un objectif radicalement différent. Ils cherchent à modéliser le monde lui-même : ses règles physiques, sa causalité, ainsi que la dynamique des objets et des situations.
Leur vocation ? Anticiper l’évolution d’une situation, raisonner sur les conséquences possibles et aider à planifier des actions concrètes dans l’environnement réel.
Des applications industrielles loin du grand public
Ne vous attendez pas à voir débarquer un « World Model GPT » accessible à tous. Emmanuelle Guyot est catégorique : « Je pense que ce ne sera pas du tout mis à disposition du grand public comme ça a été le cas des LLM avec ChatGPT en premier. Parce que leur utilisation sera plutôt sous le moteur. »
Les cas d’usage devraient être essentiellement industriels. « Ce sera un peu comme avec l’IA d’avant. On la voyait peu, elle était cachée, on ne l’utilisait pas directement mais elle faisait tourner des outils. Donc ça sera caché dans des outils, des objets ou des services qu’on va utiliser. Il n’y aura pas un « world model » qu’on utilisera directement », ajoute-t-elle.
L’autonomie des machines : une révolution et un risque
Le volet agentique de l’automatisation
Les world models représentent un atout majeur en matière d’automatisation. « Il y a quand même tout le volet agentique. Avec les world models, les professionnels pourront dire : ‘voilà ton objectif, voilà ton environnement, débrouille-toi’. L’IA pourra analyser la situation, prendre des décisions et agir », souligne Emmanuelle Guyot.
Cette capacité d’autonomie marque une rupture fondamentale avec les LLM, où l’humain reste systématiquement dans la boucle pour évaluer et décider d’accorder sa confiance.
Des conséquences potentiellement dangereuses
L’interface humaine disparaît en partie avec les world models. « Là où ça devient plus dangereux, c’est qu’il n’y a potentiellement plus d’interface entre ce qu’ils décident et nous. Avec les LLM, charge à nous humains de contrôler et de croire ou non ce qui est dit. Avec les world models, puisque l’objectif c’est qu’ils puissent prendre des décisions réfléchies et agir, ils prennent une certaine autonomie et une responsabilité que nous ne pourrons plus forcément contrôler », alerte Emmanuelle Guyot.
Les conséquences d’une erreur deviennent concrètes : un robot défaillant ou un véhicule autonome qui prend une mauvaise décision peuvent avoir des impacts physiques réels.
Une concentration de connaissances sans précédent
Un world model capable de modéliser non seulement le monde physique, mais aussi les comportements humains, la psychologie et les croyances individuelles représenterait une concentration de connaissances inédite.
« Il n’existe pas d’humain qui possède toute la connaissance du monde. Alors qu’avec ces world models, l’idée c’est qu’il y aurait une entité qui pourrait tout comprendre », observe Emmanuelle Guyot.
Ce potentiel représente aussi un terrain fertile pour la manipulation et les atteintes à la vie privée, d’autant que ces systèmes seront probablement présentés comme des LLM capables de réfléchir et de comprendre véritablement le monde.
Complémentarité plutôt que remplacement
Emmanuelle Guyot ne croit pas à un remplacement des LLM par les world models. « Les LLM ont pour objectif d’expliquer, de dialoguer, ça fait vraiment le lien avec l’humain. Les world models visent plutôt à anticiper l’évolution d’une situation, à raisonner sur les conséquences, à aider à planifier. Pour moi, cela n’a rien à voir », affirme-t-elle.
La tendance de fond s’oriente vers une complémentarité, voire une fusion des technologies. Le projet Nvidia Cosmos illustre parfaitement cette approche hybride.
L’exemple de Nvidia Cosmos
Ce projet combine un world foundation model, capable de simuler et prédire le comportement du monde physique, avec un composant vision-langage pour interpréter les instructions humaines.
L’objectif ? Accélérer le développement de robots et de véhicules autonomes en associant compréhension du langage naturel et anticipation des conséquences physiques.
Vers l’intelligence artificielle générale
Pour de nombreux chercheurs, dont Yann LeCun, les world models ne constituent pas une fin en soi. Ils représentent une étape cruciale vers l’intelligence artificielle générale (AGI).
Cette AGI, capable de tout faire et de tout comprendre, repose précisément sur la capacité à raisonner sur le monde, et pas seulement à en parler.
Des obstacles considérables demeurent néanmoins : faire apprendre à un modèle l’ensemble des situations, des lois physiques et des dynamiques humaines du monde réel reste un défi titanesque.
Une révolution invisible mais profonde
Emmanuelle Guyot, qui pilote la transformation data et IA chez Hellowork, accompagne quotidiennement des organisations dans leur mutation technologique. Son expertise lui permet d’anticiper l’impact considérable mais discret des world models.
Ces systèmes ne feront pas la une des journaux comme ChatGPT, mais ils transformeront en profondeur l’automatisation industrielle, la robotique et les véhicules autonomes.
Yann LeCun n’est d’ailleurs pas seul sur ce terrain : Fei-Fei Li et Demis Hassabis proposent également des approches différentes pour atteindre des objectifs similaires.



Laisser un commentaire