Les agents IA d'Anthropic et d'OpenAI ne tuent pas le SaaS — mais les acteurs logiciels établis ne peuvent pas dormir sur leurs deux oreilles

Bonjour et bienvenue à Eye on AI…Dans cette édition : l’« Apocalypse SaaS » n’est pas pour maintenant…OpenAI et Anthropic lancent tous deux de nouveaux modèles avec d’importantes implications en cybersécurité… la Maison Blanche envisage des restrictions volontaires sur la construction de centres de données pour éviter aux consommateurs une facture d’électricité surprise… pourquoi deux métriques d’IA fréquemment citées sont probablement toutes deux erronées… et pourquoi nous ne pouvons de plus en plus distinguer si les modèles d’IA sont sûrs.
Les investisseurs doivent se préparer à la détente. C’est ma conclusion après avoir observé les fluctuations du marché la semaine dernière. En particulier, il serait sage pour eux de consulter un psychanalyste kleinien. Car ils semblent bloqués dans ce qu’un kleinien identifierait probablement comme « la position paranoïde-schizoïde » — oscillant sauvagement entre considérer l’impact de l’IA sur les fournisseurs de logiciels établis comme « tout bon » ou « tout mauvais ». La semaine dernière, ils sont passés à « tout mauvais » et, selon Goldman Sachs, ont effacé environ 2 000 milliards de dollars de la valeur boursière. Jusqu’à présent cette semaine, tout va de nouveau bien, et le S&P 500 a rebondi vers des sommets proches des records (bien que les fournisseurs de logiciels SaaS n’aient enregistré que des gains modestes et que la tourmente ait peut-être coûté au moins un PDG : Carl Eschenbach, PDG de Workday, a annoncé qu’il quittait ses fonctions pour être remplacé par le cofondateur et ancien PDG de l’entreprise, Aneel Bhusri). Mais il y a beaucoup de nuances que les marchés ignorent. Les investisseurs aiment une narration simple. La course à l’IA d’entreprise ressemble davantage à un roman russe.

Au cours des deux dernières années, les marchés financiers ont à plusieurs reprises sanctionné les actions des entreprises SaaS, car il semblait que les modèles fondamentaux d’IA pourraient permettre aux entreprises de « coder l’ambiance » pour créer des logiciels sur mesure pouvant se substituer à Salesforce, Workday ou ServiceNow. La semaine dernière, le coupable semblait être la prise de conscience que des agents d’IA de plus en plus performants, comme ceux d’Anthropic, qui a commencé à déployer des plugins pour son produit Claude Cowork ciblant des verticales industrielles spécifiques, pourraient nuire aux entreprises SaaS de deux manières : d’abord, les nouvelles offres d’agents des entreprises de modèles fondamentaux concurrencent directement les logiciels d’agents d’IA des géants SaaS. Ensuite, en automatisant les flux de travail, ces agents pourraient réduire la nécessité d’employés humains, ce qui signifie que les entreprises SaaS ne pourront pas facturer autant de licences par siège. Les fournisseurs SaaS sont donc frappés de deux côtés.

Mais il n’est pas certain que tout cela soit vrai — ou du moins, ce n’est que partiellement vrai.

Vidéo recommandée


Les agents d’IA n’absorbent pas le SaaS, ils l’utilisent

Tout d’abord, il est très peu probable, même si les agents de codage IA deviennent de plus en plus performants, que la majorité des entreprises du Fortune 500 veuillent créer leur propre logiciel CRM, RH ou gestion de la chaîne d’approvisionnement sur mesure. Nous ne verrons tout simplement pas un déploiement complet des 50 dernières années de développement logiciel d’entreprise. Si vous fabriquez des widgets, vous ne souhaitez pas vraiment vous lancer dans la création, la gestion et la maintenance d’un logiciel ERP, même si ce processus est en grande partie automatisé par des ingénieurs en IA. Cela reste trop coûteux et détourne trop de talents d’ingénierie rares — même si la quantité de travail humain nécessaire est une fraction de ce qu’elle aurait été il y a cinq ans. La demande pour les offres de produits principaux traditionnels des entreprises SaaS devrait donc rester stable.

Quant aux nouvelles préoccupations concernant les agents d’IA des fabricants de modèles fondamentaux qui pourraient voler le marché des offres d’agents IA des fournisseurs SaaS, il y a ici un peu plus à craindre pour les investisseurs SaaS. Il se pourrait qu’Anthropic, OpenAI et Google dominent la couche supérieure de la pile d’IA agentique — en construisant les plateformes d’orchestration d’agents qui permettent aux grandes entreprises de créer, gérer et gouverner des flux de travail complexes. C’est ce que OpenAI tente de faire avec le lancement la semaine dernière de sa nouvelle plateforme d’IA agentique pour l’entreprise, appelée Frontier.

Les acteurs établis du SaaS affirment qu’ils savent mieux comment gérer la couche d’orchestration parce qu’ils sont déjà habitués à traiter avec la cybersécurité, les contrôles d’accès et les questions de gouvernance, et parce qu’ils possèdent souvent déjà les données auxquelles les agents d’IA devront accéder pour accomplir leurs tâches. De plus, comme la plupart des flux de travail en entreprise ne seront pas entièrement automatisés, les sociétés SaaS pensent qu’elles sont mieux placées pour servir une main-d’œuvre hybride, où humains et agents d’IA travaillent ensemble sur le même logiciel et dans les mêmes flux. Elles pourraient avoir raison. Mais elles devront le prouver avant qu’OpenAI ou Anthropic ne montrent qu’elles peuvent faire aussi bien ou mieux.

Les entreprises de modèles fondamentaux ont aussi une chance de dominer le marché des agents d’IA. Claude Cowork d’Anthropic constitue une menace sérieuse pour Salesforce et Microsoft, mais pas une menace totalement existentielle. Il ne remplace pas totalement le besoin de logiciels SaaS, car Claude utilise ces logiciels comme outils pour accomplir des tâches. Mais cela signifie certainement que certains clients pourraient préférer utiliser Claude Cowork plutôt que de passer à Salesforce Agentforce ou Microsoft 365 Copilot. Cela pourrait freiner la croissance des SaaS, comme le soutient cet article de Wall Street Journal de Dan Gallagher.

Les fournisseurs SaaS adaptent leurs modèles commerciaux

Quant à la menace pesant sur le modèle traditionnel de vente de licences par siège, les entreprises SaaS en ont conscience et cherchent à y répondre. Salesforce a été pionnier dans ce qu’il appelle son « Contrat de licence d’entreprise agentique » (AELA), qui offre essentiellement aux clients un accès tout compris à Agentforce à prix fixe. ServiceNow évolue vers des modèles de tarification basés sur la consommation et la valeur pour certains de ses offres d’agents IA. Microsoft a également introduit une tarification basée sur la consommation en complément de son modèle habituel par utilisateur par mois pour son produit Microsoft Copilot Studio, qui permet aux clients de créer des agents Copilot. Ainsi, cette menace n’est pas existentielle, mais elle pourrait freiner la croissance et la marge des SaaS. En effet, l’un des secrets peu reluisants de l’industrie SaaS est probablement le même que pour les abonnements en salle de sport et autres modèles d’abonnement : vos meilleurs clients sont souvent ceux qui paient pour des abonnements qu’ils n’utilisent pas. Cela est beaucoup moins probable avec ces autres modèles commerciaux.

Donc, le SaaS n’est pas fini. Mais il n’est pas non plus forcément destiné à prospérer. Le destin des différentes entreprises de cette catégorie risque de diverger. Comme certains analystes de Wall Street l’ont souligné la semaine dernière, il y aura des gagnants et des perdants. Mais il est encore trop tôt pour les désigner. Pour l’instant, les investisseurs doivent vivre avec cette ambiguïté.

Avec cela, voici plus d’actualités sur l’IA.

Jeremy Kahn
[email protected]
@jeremyakahn

FORTUNE SUR L’IA

OpenAI vs. Anthropic : un clash publicitaire au Super Bowl annonce que nous sommes entrés dans l’ère du « trash talk » de l’IA — et la course pour posséder des agents d’IA ne fait que s’intensifier — par Sharon Goldman

Le nouveau modèle d’Anthropic excelle à détecter les vulnérabilités de sécurité — mais soulève de nouveaux risques en cybersécurité — par Beatrice Nolan

Le nouveau modèle d’OpenAI progresse en capacités de codage — mais pose des risques de cybersécurité sans précédent — par Sharon Goldman

La part de marché de ChatGPT diminue alors que Google et ses rivaux comblent l’écart, selon les données de suivi d’applications — par Beatrice Nolan

ACTUALITÉS SUR L’IA

L’IA entraîne une « intensification » du travail pour les employés, selon une étude. Une étude de huit mois menée par deux chercheurs de l’Université de Californie à Berkeley révèle que, plutôt que de réduire la charge de travail, les outils d’IA générative l’intensifient. Les systèmes d’IA accélèrent le temps nécessaire pour accomplir des tâches mais augmentent aussi le volume et la cadence de la production attendue. Les employés équipés d’IA non seulement terminent leur travail plus vite, mais prennent aussi en charge des tâches plus larges, prolongent leurs heures de travail, et subissent une charge cognitive accrue liée à la gestion, la revue et la correction des sorties d’IA, brouillant les frontières entre travail et temps libre. La recherche remet en question l’idée courante selon laquelle l’IA faciliterait la vie des travailleurs du savoir, montrant plutôt que l’automatisation entraîne souvent des exigences plus élevées et du burnout. Lisez plus dans Harvard Business Review ici.

La Maison Blanche envisage des restrictions volontaires sur l’expansion des centres de données. L’administration Trump envisage un accord volontaire avec de grandes entreprises technologiques pour garantir que les centres de données ne gonflent pas les factures d’électricité de détail, n’épuisent pas les ressources en eau et ne compromettent pas la fiabilité du réseau électrique. La proposition, encore en cours de finalisation, impliquerait que les entreprises acceptent d’assumer les coûts d’infrastructure et de limiter l’impact local de leurs installations, suite à des plaintes dans certaines régions selon lesquelles les centres de données ont entraîné des hausses importantes des factures d’électricité pour les consommateurs. Lisez plus sur Politico ici.

Amazon prévoit une marketplace de contenu pour que les éditeurs vendent aux entreprises d’IA. Selon The Information, qui cite des sources proches du projet, cette initiative intervient alors que éditeurs et entreprises d’IA se disputent sur la façon dont le contenu doit être licencié et rémunéré, craignant que la recherche et les outils de chat pilotés par l’IA n’érodent le trafic et les revenus publicitaires. Cloudflare et Akamai ont lancé une initiative similaire l’année dernière. Microsoft a testé sa propre version et l’a déployée plus largement la semaine dernière. Mais jusqu’à présent, il n’est pas clair combien d’entreprises d’IA achètent sur ces marketplaces ni à quels volumes. Certains grands éditeurs ont conclu des accords sur mesure valant des millions de dollars par an avec OpenAI, Anthropic et d’autres.

Goldman Sachs fait appel à Anthropic pour des travaux comptables et de conformité. La banque d’investissement collabore avec Anthropic pour déployer des agents autonomes basés sur le modèle Claude afin d’automatiser des tâches à volume élevé et basées sur des règles, comme la comptabilité des transactions et l’intégration des clients, après six mois de développement conjoint, selon CNBC. La banque indique que l’objectif est l’efficacité, en accélérant les processus tout en maintenant les effectifs faibles à mesure que le volume d’affaires augmente, plutôt que de procéder à des suppressions d’emplois à court terme. Les dirigeants ont été surpris de voir à quel point Claude gérait bien des tâches complexes de comptabilité et de conformité, renforçant l’idée que l’IA peut aller au-delà du codage pour couvrir des fonctions essentielles du back-office.

RECHERCHE SUR L’IA

Démystifier deux métriques d’IA populaires pour des raisons opposées. Poursuivant sur le thème de l’essai principal de la newsletter d’aujourd’hui, je souhaite mettre en lumière deux publications récentes. Chacune démystifie une métrique populaire qui attire beaucoup l’attention dans les discussions sur l’IA et son impact probable sur les entreprises. L’une a été utilisée pour faire l’éloge des progrès de l’IA ; l’autre pour affirmer que l’IA n’a pas vraiment d’impact.

D’abord, dans la newsletter The Transformer, Nathan Witkin, dans un article adapté de son blog, démantèle la référence METR, un benchmark influent prétendant montrer que la capacité de l’IA « double tous les 7 mois ». Witkin soutient que les références humaines sont gravement compromises : les tâches ont été réalisées par un petit échantillon non représentatif d’ingénieurs recrutés dans le réseau de METR, payés à l’heure (ce qui incite à la lenteur), et souvent hors de leur domaine d’expertise. Les données de METR montrent que ses ingénieurs ont accompli les tâches 5 à 18 fois plus vite que ces références. Sur les tâches les plus réalistes et « chaotiques », aucun modèle n’a dépassé un taux de réussite de 30 %.

Ensuite, Azeem Azhar, dans sa newsletter Exponential View, s’attaque à cette étude « MIT » devenue célèbre, qui prétendait que « 95 % des organisations ne voient aucun retour de l’IA ». Azhar constate que l’étude sous-jacente s’appuyait sur seulement 52 interviews, manquait d’intervalles de confiance, utilisait des dénominateurs incohérents, et était décrite par le MIT lui-même comme un « travail préliminaire, non évalué par des pairs ». En recalculant avec un dénominateur raisonnable (les entreprises ayant réellement mené des pilotes), le taux de succès pourrait être plus proche de 25 %.

En résumé, ces critiques suggèrent que tant le discours techno-optimiste (l’IA s’améliore à une vitesse folle) que celui du scepticisme (l’IA ne fonctionne pas dans le monde réel) sont probablement erronés. La vérité, comme d’habitude, est bien plus complexe et se situe quelque part entre ces positions extrêmes.

CALENDRIER DE L’IA

10-11 février : Sommet Action IA, New Delhi, Inde.

24-26 février : Association Internationale pour une IA Sûre et Éthique (IASEAI), UNESCO, Paris, France.

2-5 mars : Mobile World Congress, Barcelone, Espagne.

12-18 mars : South by Southwest, Austin, Texas.

16-19 mars : Nvidia GTC, San Jose, Californie.

ALIMENTATION CÉRÉBRALE

Les modèles nous sous-estiment de plus en plus. Le terme « sandbagging » utilisé par les chercheurs en sécurité de l’IA désigne le phénomène par lequel un modèle d’IA semble volontairement moins performant ou plus « aligné » avec les valeurs humaines lors des évaluations de sécurité pour tromper les évaluateurs. Plusieurs modèles de pointe récemment déployés semblent faire cela de manière alarmante.

Claude Opus 4.6 d’Anthropic, lancé la semaine dernière, « a explicitement réfléchi à savoir s’il était en cours d’entraînement ou de test », selon la société. Apollo Research, qui a évalué GPT-5.3-Codex d’OpenAI, également lancé la semaine dernière, a constaté que le modèle « fait parfois du sandbagging sur des tâches de questions-réponses » et « raisonne explicitement » pour s’assurer de réussir l’évaluation. OpenAI a reconnu que « les résultats d’évaluation peuvent être biaisés par une conscience situationnelle accrue » et a averti que « le domaine n’est pas prêt pour des modèles d’évaluation et d’entraînement à la conscience opaque ». Le rapport de sécurité Gemini 3 Pro de Google, publié en décembre, a documenté des transcriptions où le modèle montrait une « conscience claire du fait qu’il s’agit d’un LLM dans un environnement synthétique » et spéculait même sur le fait que sous-performer délibérément lors des tests pourrait être stratégiquement avantageux. En résumé : les examens que nous utilisons pour déterminer si ces modèles sont sûrs deviennent de plus en plus peu fiables, car les testeurs savent qu’ils sont évalués — et ajustent leur comportement en conséquence.
C’est pourquoi notre seule chance d’assurer la sécurité de l’IA pourrait résider dans de nouveaux progrès en interprétabilité mécanistique. Il s’agit de méthodes qui fonctionnent un peu comme un fMRI pour le cerveau humain, en scrutant l’intérieur du réseau neuronal d’un modèle pour détecter des motifs d’activation neuronale et en les reliant à certains comportements, y compris si le modèle pense qu’il est honnête ou qu’il trompe. The New Yorker publie cette semaine une analyse approfondie sur les efforts d’interprétation mécanistique et de « psychologie du modèle » d’Anthropic.

Rejoignez-nous au sommet Fortune Workplace Innovation les 19-20 mai 2026, à Atlanta. La nouvelle ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)