L’IA entre dans une nouvelle phase : son 2.0. L’IA 1.0 reposait sur des données non structurées appliquant un apprentissage automatique général à des problématiques commerciales larges. Elle marquait le passage de l’IA expérimentale à des systèmes opérationnels et agentiques précoces, fondés sur la croyance que des modèles plus grands produiraient naturellement les résultats les plus puissants. Ce concept était renforcé par la course des hyperscalers à construire des modèles de frontier toujours plus grands, créant une course aux armements qui a permis des avancées mais aussi entraîné des demandes de calcul insoutenables et des coûts d’infrastructure en hausse.
Vidéo recommandée
L’IA 2.0 est différente et remet en question cette croyance, car des modèles plus grands s’avèrent bien moins précieux en pratique. Plutôt que de modéliser le langage ou les probabilités statistiques, l’IA 2.0 se concentre sur la modélisation des dynamiques du monde réel. Elle s’appuie sur l’apprentissage automatique informé par la physique – des modèles rigoureux, basés sur la simulation et ancrés dans des équations différentielles, mais accélérés par l’IA. Ces modèles ne hallucinent pas ; ils calculent et prédisent dans les limites des opérations du monde réel, ce qui les rend bien plus adaptés à la production. Ce changement renforce également l’idée que les entreprises ne peuvent plus se reposer uniquement sur l’économie des hyperscalers. La formation de modèles de frontier nécessite des ressources de calcul que seuls quelques fournisseurs peuvent supporter, poussant les organisations à reconsidérer si « plus grand » est même accessible, encore moins optimal, pour leurs cas d’usage.
En fin de compte, la caractéristique déterminante de l’IA 2.0 n’est pas l’échelle, mais la retenue. Nous avançons vers des systèmes d’IA qui savent quand arrêter de réfléchir. Ce sont des modèles conçus pour la précision, l’efficacité des coûts et un raisonnement solide plutôt que pour un calcul sans fin.
La transition de l’IA 1.0 à l’IA 2.0
L’IA 1.0 était principalement basée sur l’inférence, dominée par l’expérimentation et les preuves de concept, où les organisations optimisaient pour des démos et des benchmarks plutôt que pour des résultats opérationnels. La question principale n’était pas de savoir si l’IA pouvait évoluer de manière économique ou fiable ; c’était simplement si elle pouvait fonctionner.
Dans cette phase, beaucoup de leaders sont tombés dans ce qu’on a appelé le « piège de la précision », où ils optimisaient uniquement pour la précision, au détriment du calcul ou de la conscience contextuelle. Les modèles qui semblaient solides en environnement contrôlé échouaient finalement en déploiement réel parce qu’ils étaient soit trop lents pour répondre aux exigences du monde réel, soit trop coûteux à faire évoluer avec une économie unitaire saine. L’instinct était de commencer avec le plus grand modèle possible, en supposant que l’adaptation améliorerait naturellement la performance.
L’IA 2.0 revoit cette logique. Les leaders sont désormais responsables du ROI mesurable, pas des démos ou des scores de benchmark. En 2.0, il faut arrêter de former des modèles pour tout savoir et plutôt former des modèles d’IA pour simuler ce qui compte. C’est un paradigme plus spécialisé, où l’objectif est d’apprendre et de perfectionner une ou plusieurs capacités plutôt que de poursuivre la généralisation pour elle-même.
Dans l’IA 2.0, chaque secteur – de la santé à la fabrication en passant par les services financiers – pourra construire des modèles plus petits, spécifiques à leur domaine, qui simulent leurs physiques, contraintes et environnements uniques. C’est comparable à passer de la fabrication automobile de masse à l’assemblage personnalisé : les gens pourront « construire leur propre voiture » car la production ne sera plus uniquement dictée par l’économie d’échelle. Par exemple, dans la santé, des modèles plus petits, informés par la physique, peuvent simuler la progression des maladies ou les réponses aux traitements sans dépendre de systèmes généralisés vastes. Cela élimine les risques d’hallucination et augmente la fiabilité dans les flux de travail critiques pour la sécurité.
De plus, la dynamique des hyperscalers évolue également ici. Au lieu de tout faire passer par des modèles centralisés massifs, les entreprises distribuent l’intelligence en combinant des modèles fondamentaux avec de petits modèles linguistiques, réduisant leur dépendance aux hyperscalers et optimisant la performance pour des environnements locaux spécifiques.
Ce changement n’est pas seulement technique, il est aussi économique et opérationnel.
La clé du succès : savoir quand « arrêter de réfléchir »
Dans les environnements d’entreprise, « réfléchir » a un coût réel. Plus de paramètres ne se traduisent que rarement par de meilleurs résultats pour la plupart des charges de travail. Pour de nombreuses applications, des modèles de classe GPT-5 sont surdimensionnés, coûteux et lents, ce qui entraîne des déploiements retardés et des cas d’usage limités.
La base de l’IA 2.0 est une intelligence consciente des contraintes. Les modèles du monde permettent aux systèmes de construire une représentation spécifique de la réalité, leur permettant de raisonner sur ce qui importe plutôt que de recalculer leur compréhension à chaque étape. Une discussion similaire a été lancée à Davos cette année lorsque Yann LeCun, pionnier de l’IA, a déclaré que nous « n’atteindrons jamais une intelligence de niveau humain en entraînant des LLM ou en entraînant uniquement sur du texte. Nous avons besoin du monde réel. » Son point de vue est que générer du code est une chose, mais atteindre la complexité cognitive, par exemple, des voitures autonomes de niveau cinq, dépasse de loin ce que les grands modèles actuels peuvent faire.
Tout cela mène à l’idée que les modèles de classe GPT-5 ne sont pas entraînés sur des scénarios du monde réel. Alors que des modèles plus petits, spécialisés et efficacement ajustés peuvent atteindre une précision suffisante plus rapidement, offrir des latences nettement inférieures, fonctionner à une fraction du coût et évoluer de manière prévisible selon la demande réelle. En pratique, l’IA ne doit pas réfléchir à l’infini et ne peut certainement pas fonctionner selon une architecture « un modèle pour tous ». Elle doit évoluer dans un espace de décision défini. La tendance émergente inclut des architectures qui dirigent les tâches vers le modèle le plus simple et efficace, n’escaladent que lorsque c’est nécessaire, et équilibrent en permanence précision, rapidité et coût.
En d’autres termes, la taille du modèle est la métrique la plus dangereuse sur le tableau de bord. C’est un vestige de l’ère 1.0 qui confond capacité et capacité réelle. Ce qui compte vraiment, c’est le coût par problème résolu : à quel point un système peut fournir un résultat précis et fiable dans les limites des opérations réelles.
Les entreprises ne gagneront pas en utilisant les plus grands modèles ; elles gagneront en utilisant les plus économiques qui résolvent les problèmes à grande échelle.
L’arbitrage des talents dans l’IA 2.0
Le talent est une autre variable critique de l’IA 2.0 qui va profondément modifier la dynamique de l’industrie, car le succès exige une main-d’œuvre capable de construire des modèles pour des applications très variables. Aujourd’hui, seule une petite partie des talents mondiaux peut développer des modèles fondamentaux, et la majorité de ces talents se concentre dans quelques hubs technologiques mondiaux.
Actuellement, les chercheurs sont les superstars et sont rémunérés en conséquence, car ils sont très demandés. Mais la transition vers l’IA 2.0 exige de passer de magiciens à mécaniciens : des professionnels capables d’ajuster, maintenir et optimiser des modèles pour résoudre des problèmes concrets. Cette transition de talents sera l’une des plus grandes opportunités d’arbitrage de cette prochaine phase de l’IA. Si l’IA doit être véritablement démocratisée, les entreprises ont besoin de talents partout qui comprennent la physique des secteurs – que ce soit en médecine, fabrication, logistique, etc. – et peuvent traduire cette expertise en systèmes d’IA spécialisés et utilisables.
Comment cela impacte-t-il les feuilles de route de l’IA pour 2026 ? Cela signifie que nous devons travailler plus intelligemment, pas plus dur. Les budgets et stratégies doivent évoluer vers plus d’efficacité, mais aussi vers une meilleure utilisabilité, en favorisant des modèles plus petits, optimisés, des architectures hybrides et multi-modèles, et des systèmes conçus pour la durabilité à grande échelle. Les indicateurs de succès évolueront du taille du modèle vers le coût par résultat, le délai de décision et l’impact tangible dans le monde réel.
L’IA 2.0 ne consiste pas à abandonner les grands modèles. Il s’agit de les utiliser de manière délibérée et économique. Les organisations qui adopteront ces pratiques avanceront plus vite, dépenseront moins et réaliseront plus que celles qui poursuivent la simple échelle brute.
Les opinions exprimées dans les articles de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement celles de Fortune.
Rejoignez-nous au Fortune Workplace Innovation Summit du 19 au 20 mai 2026 à Atlanta. La prochaine ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Je suis le directeur de la stratégie de Cloudera et voici pourquoi votre budget IA de $1 milliards est désormais obsolète
L’IA entre dans une nouvelle phase : son 2.0. L’IA 1.0 reposait sur des données non structurées appliquant un apprentissage automatique général à des problématiques commerciales larges. Elle marquait le passage de l’IA expérimentale à des systèmes opérationnels et agentiques précoces, fondés sur la croyance que des modèles plus grands produiraient naturellement les résultats les plus puissants. Ce concept était renforcé par la course des hyperscalers à construire des modèles de frontier toujours plus grands, créant une course aux armements qui a permis des avancées mais aussi entraîné des demandes de calcul insoutenables et des coûts d’infrastructure en hausse.
Vidéo recommandée
L’IA 2.0 est différente et remet en question cette croyance, car des modèles plus grands s’avèrent bien moins précieux en pratique. Plutôt que de modéliser le langage ou les probabilités statistiques, l’IA 2.0 se concentre sur la modélisation des dynamiques du monde réel. Elle s’appuie sur l’apprentissage automatique informé par la physique – des modèles rigoureux, basés sur la simulation et ancrés dans des équations différentielles, mais accélérés par l’IA. Ces modèles ne hallucinent pas ; ils calculent et prédisent dans les limites des opérations du monde réel, ce qui les rend bien plus adaptés à la production. Ce changement renforce également l’idée que les entreprises ne peuvent plus se reposer uniquement sur l’économie des hyperscalers. La formation de modèles de frontier nécessite des ressources de calcul que seuls quelques fournisseurs peuvent supporter, poussant les organisations à reconsidérer si « plus grand » est même accessible, encore moins optimal, pour leurs cas d’usage.
En fin de compte, la caractéristique déterminante de l’IA 2.0 n’est pas l’échelle, mais la retenue. Nous avançons vers des systèmes d’IA qui savent quand arrêter de réfléchir. Ce sont des modèles conçus pour la précision, l’efficacité des coûts et un raisonnement solide plutôt que pour un calcul sans fin.
La transition de l’IA 1.0 à l’IA 2.0
L’IA 1.0 était principalement basée sur l’inférence, dominée par l’expérimentation et les preuves de concept, où les organisations optimisaient pour des démos et des benchmarks plutôt que pour des résultats opérationnels. La question principale n’était pas de savoir si l’IA pouvait évoluer de manière économique ou fiable ; c’était simplement si elle pouvait fonctionner.
Dans cette phase, beaucoup de leaders sont tombés dans ce qu’on a appelé le « piège de la précision », où ils optimisaient uniquement pour la précision, au détriment du calcul ou de la conscience contextuelle. Les modèles qui semblaient solides en environnement contrôlé échouaient finalement en déploiement réel parce qu’ils étaient soit trop lents pour répondre aux exigences du monde réel, soit trop coûteux à faire évoluer avec une économie unitaire saine. L’instinct était de commencer avec le plus grand modèle possible, en supposant que l’adaptation améliorerait naturellement la performance.
L’IA 2.0 revoit cette logique. Les leaders sont désormais responsables du ROI mesurable, pas des démos ou des scores de benchmark. En 2.0, il faut arrêter de former des modèles pour tout savoir et plutôt former des modèles d’IA pour simuler ce qui compte. C’est un paradigme plus spécialisé, où l’objectif est d’apprendre et de perfectionner une ou plusieurs capacités plutôt que de poursuivre la généralisation pour elle-même.
Dans l’IA 2.0, chaque secteur – de la santé à la fabrication en passant par les services financiers – pourra construire des modèles plus petits, spécifiques à leur domaine, qui simulent leurs physiques, contraintes et environnements uniques. C’est comparable à passer de la fabrication automobile de masse à l’assemblage personnalisé : les gens pourront « construire leur propre voiture » car la production ne sera plus uniquement dictée par l’économie d’échelle. Par exemple, dans la santé, des modèles plus petits, informés par la physique, peuvent simuler la progression des maladies ou les réponses aux traitements sans dépendre de systèmes généralisés vastes. Cela élimine les risques d’hallucination et augmente la fiabilité dans les flux de travail critiques pour la sécurité.
De plus, la dynamique des hyperscalers évolue également ici. Au lieu de tout faire passer par des modèles centralisés massifs, les entreprises distribuent l’intelligence en combinant des modèles fondamentaux avec de petits modèles linguistiques, réduisant leur dépendance aux hyperscalers et optimisant la performance pour des environnements locaux spécifiques.
Ce changement n’est pas seulement technique, il est aussi économique et opérationnel.
La clé du succès : savoir quand « arrêter de réfléchir »
Dans les environnements d’entreprise, « réfléchir » a un coût réel. Plus de paramètres ne se traduisent que rarement par de meilleurs résultats pour la plupart des charges de travail. Pour de nombreuses applications, des modèles de classe GPT-5 sont surdimensionnés, coûteux et lents, ce qui entraîne des déploiements retardés et des cas d’usage limités.
La base de l’IA 2.0 est une intelligence consciente des contraintes. Les modèles du monde permettent aux systèmes de construire une représentation spécifique de la réalité, leur permettant de raisonner sur ce qui importe plutôt que de recalculer leur compréhension à chaque étape. Une discussion similaire a été lancée à Davos cette année lorsque Yann LeCun, pionnier de l’IA, a déclaré que nous « n’atteindrons jamais une intelligence de niveau humain en entraînant des LLM ou en entraînant uniquement sur du texte. Nous avons besoin du monde réel. » Son point de vue est que générer du code est une chose, mais atteindre la complexité cognitive, par exemple, des voitures autonomes de niveau cinq, dépasse de loin ce que les grands modèles actuels peuvent faire.
Tout cela mène à l’idée que les modèles de classe GPT-5 ne sont pas entraînés sur des scénarios du monde réel. Alors que des modèles plus petits, spécialisés et efficacement ajustés peuvent atteindre une précision suffisante plus rapidement, offrir des latences nettement inférieures, fonctionner à une fraction du coût et évoluer de manière prévisible selon la demande réelle. En pratique, l’IA ne doit pas réfléchir à l’infini et ne peut certainement pas fonctionner selon une architecture « un modèle pour tous ». Elle doit évoluer dans un espace de décision défini. La tendance émergente inclut des architectures qui dirigent les tâches vers le modèle le plus simple et efficace, n’escaladent que lorsque c’est nécessaire, et équilibrent en permanence précision, rapidité et coût.
En d’autres termes, la taille du modèle est la métrique la plus dangereuse sur le tableau de bord. C’est un vestige de l’ère 1.0 qui confond capacité et capacité réelle. Ce qui compte vraiment, c’est le coût par problème résolu : à quel point un système peut fournir un résultat précis et fiable dans les limites des opérations réelles.
Les entreprises ne gagneront pas en utilisant les plus grands modèles ; elles gagneront en utilisant les plus économiques qui résolvent les problèmes à grande échelle.
L’arbitrage des talents dans l’IA 2.0
Le talent est une autre variable critique de l’IA 2.0 qui va profondément modifier la dynamique de l’industrie, car le succès exige une main-d’œuvre capable de construire des modèles pour des applications très variables. Aujourd’hui, seule une petite partie des talents mondiaux peut développer des modèles fondamentaux, et la majorité de ces talents se concentre dans quelques hubs technologiques mondiaux.
Actuellement, les chercheurs sont les superstars et sont rémunérés en conséquence, car ils sont très demandés. Mais la transition vers l’IA 2.0 exige de passer de magiciens à mécaniciens : des professionnels capables d’ajuster, maintenir et optimiser des modèles pour résoudre des problèmes concrets. Cette transition de talents sera l’une des plus grandes opportunités d’arbitrage de cette prochaine phase de l’IA. Si l’IA doit être véritablement démocratisée, les entreprises ont besoin de talents partout qui comprennent la physique des secteurs – que ce soit en médecine, fabrication, logistique, etc. – et peuvent traduire cette expertise en systèmes d’IA spécialisés et utilisables.
Comment cela impacte-t-il les feuilles de route de l’IA pour 2026 ? Cela signifie que nous devons travailler plus intelligemment, pas plus dur. Les budgets et stratégies doivent évoluer vers plus d’efficacité, mais aussi vers une meilleure utilisabilité, en favorisant des modèles plus petits, optimisés, des architectures hybrides et multi-modèles, et des systèmes conçus pour la durabilité à grande échelle. Les indicateurs de succès évolueront du taille du modèle vers le coût par résultat, le délai de décision et l’impact tangible dans le monde réel.
L’IA 2.0 ne consiste pas à abandonner les grands modèles. Il s’agit de les utiliser de manière délibérée et économique. Les organisations qui adopteront ces pratiques avanceront plus vite, dépenseront moins et réaliseront plus que celles qui poursuivent la simple échelle brute.
Les opinions exprimées dans les articles de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement celles de Fortune.
Rejoignez-nous au Fortune Workplace Innovation Summit du 19 au 20 mai 2026 à Atlanta. La prochaine ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.