Mythos, l'IA trop dangereuse selon son créateur Anthropic, accusé de coup médiatique
Le report par Anthropic de son nouveau modèle d'IA Mythos, présenté comme capable de provoquer une vague sans précédent de cyberattaques, a retenti comme un signal d'alarme jusqu'aux plus hautes sphères étatiques, sans éteindre le scepticisme envers l'entreprise, accusée de surjouer les risques d'une technologie qu'elle commercialise activement.
Une réunion vendredi à Washington entre le secrétaire au Trésor Scott Bessent, le président de la Réserve fédérale Jerome Powell et des dirigeants de grandes banques américaines pour évaluer les implications de Mythos sur la sécurité a confirmé que l'annonce le 7 avril de son report a dépassé le cercle des initiés de l'IA.
"C'est un événement charnière dans l'histoire de la cybersécurité", a réagi Shlomo Kramer, vétéran israélien du domaine, prédisant un "tsunami de failles zero-day", c'est-à-dire des vulnérabilités inconnues de leurs concepteurs, impossibles à corriger avant d'être exploitées par les pirates.
Le sujet a été largement commenté cette semaine à HumanX, une grande conférence autour de l'IA au coeur de San Francisco.
"Je crois que nous verrons en 2026 une attaque catastrophique intégrant des capacités d'IA autonomes", y a déclaré Wendy Whitmore, vice-présidente de Palo Alto Networks, un acteur phare de la cybersécurité américaine.
Son entreprise fait partie avec Google, Nvidia, Apple et Microsoft, entre autres, du consortium Glasswing annoncé mardi par Anthropic, chargé de tester Mythos et combler les failles avant sa publication.
Mythos "a trouvé une faille qui dormait depuis 27 ans" dans un système informatique fondamentale (BSD), socle d'objets grand public comme l'iPhone ou la Playstation, a raconté Adam Meyers, vice-président de CrowdStrike, également membre de Glasswing.
"De nombreux experts avaient scruté ce code pendant des décennies sans la trouver. C'est un signal d'alarme pour toute l'industrie", a-t-il commenté.
"Les hôpitaux sont probablement parmi les organisations les moins équipées pour faire face au déluge qui arrive. Ce sont les patients, les voyageurs cloués au sol, les automobilistes en manque de carburant qui vont souffrir", a abondé Kara Sprague, PDG de HackerOne, spécialiste de la détection de failles informatiques.
A l'avenir, "nous allons superviser des agents IA qui feront la défense, pendant que les attaquants superviseront leurs agents pour attaquer", a décrit Alex Stamos, ancien responsable de la sécurité de Facebook.
"En deux minutes, l'agent attaquant aura traversé tout mon réseau, récupéré mes clés d'accès et téléchargé toutes mes données. C'est terminé", a décrit cet expert. Non sans soulever la question de l'opportunisme d'Antropic.
"J'adore le style marketing d'Anthropic", a-t-il ironisé. Son patron "Dario Amodei donne des interviews sur la fin du monde, et ensuite ils présentent ces produits si incroyablement dangereux avec d'adorables petits dessins: c'est comme si le Projet Manhattan avait annoncé la bombe atomique dans une bande dessinée Calvin et Hobbes."
Le président du conseil d'administration d'OpenAI, rival à couteaux tirés d'Anthropic, n'a pas pu échapper à la question lorsqu'il s'est présenté mardi sur la scène d'HumanX.
"Conceptuellement, sur la base de ce que vous venez de me dire, je pense que c'est une très bonne idée", a concédé à chaud Bret Taylor en réaction à l'annonce du consortium Glasswing quelques instants auparavant.
Sans surprise, la critique la plus virulente est venue de l'administration Trump, en guerre ouverte avec Anthropic, jugée trop progressiste et menacée de perdre tous ses contrats publics américains, dont le Pentagone.
"Il est difficile d'ignorer qu'Anthropic a un historique de tactiques alarmistes", a écrit sur X David Sacks, le conseiller IA numéro 1 de Donald Trump, avant de lister quelques exemples: la description en mai 2025 de comportements préoccupants de Claude, capable de menacer un ingénieur fictif de révéler sa liaison extraconjugale pour ne pas être débranché, ou encore la prédiction de Dario Amodei estimant à 25% la probabilité que le développement de l'IA mène à une "catastrophe existentielle".
Les annonces d'Anthropic s'inscrivent aussi dans un calendrier: les marchés attendent avec impatience l'entrée en bourse envisagée de la start-up, valorisée 380 milliards de dollars à ce jour, ainsi que celle d'OpenAI et de SpaceX.
Les trois entreprises technologiques, entourées par les investisseurs comme des poules aux oeufs d'or, sont sous pression pour démontrer leur futur rentabilité, encore loin d'être acquise vu les coûts pharaoniques de la ruée vers l'IA.
Y.Harris--SFF