WASHINGTON : Cyberdéfense – Le Pentagone tente un par…
Partager :
WASHINGTON : Cyberdéfense – Le Pentagone tente un pari risqué en alignant l’IA Grok sur le terrain
Alors que le ministère américain de la Défense officialise le recrutement de l’IA Grok d’Elon Musk, les analystes de Cybernews sifflent une faute majeure et alertent sur une stratégie qui pourrait se transformer en un terrible but contre son camp.
C’est le transfert qui fait trembler les gradins de la cybersécurité mondiale. Le Pentagone a décidé de titulariser Grok, l’intelligence artificielle développée par Elon Musk, au sein de son dispositif de défense. Une manœuvre audacieuse qui ressemble à un coup de poker tactique, mais qui pourrait bien exposer la ligne arrière américaine à des contres dévastateurs. Pour Jurgita Lapienytė, rédactrice en chef de Cybernews (https://cybernews.com/), l’adversaire n’est pas forcément une révolte des machines, mais bien l’erreur humaine. « L’un des risques est que les humains suivent aveuglément ses conseils erronés jusqu’au désastre », prévient l’experte.
Une défense qui prend l’eau de toutes parts.
Sur le terrain numérique, chaque nouveau joueur doit être irréprochable. Or, l’intégration de Grok ouvre des brèches béantes dans la muraille défensive du Pentagone. Chaque point d’accès à l’IA est une porte ouverte pour les attaquants adverses qui cherchent à dribbler les sécurités, empoisonner les données ou casser le système.
Le constat est sévère pour l’équipe d’Elon Musk : le staff de sécurité de xAI (la société mère de Grok) manque cruellement de profondeur de banc comparé à ses concurrents. « Il y a simplement moins de ressources pour gérer l’immense périmètre d’attaque que représente chaque application d’IA de nos jours », analyse Jurgita Lapienytė. Face à des hackers d’État surentrainés, la défense risque de craquer sous la pression.
Un playbook offert à l’adversaire.
Le plus grand danger ? Que les officiels, pensant gagner en efficacité, nourrissent Grok avec des informations militaires sensibles. Une erreur de débutant qui transformerait l’outil en cauchemar tactique. Les acteurs malveillants, sachant que le Pentagone utilise activement cette IA, seront plus motivés que jamais à la faire plier via des hacks ou des injections de prompts. Grok pourrait alors se retourner contre son propre camp et devenir un outil de surveillance massive au service de l’ennemi.
L’histoire récente a déjà montré que la discipline n’est pas le fort de l’administration. Le scandale Signal, où l’administration Trump avait accidentellement envoyé ses plans de guerre à un journaliste, est encore dans toutes les mémoires. « Nous ne sommes plus aussi naïfs, n’est-ce pas ? », ironise Jurgita Lapienytė, rappelant qu’une simple erreur de communication peut faire basculer le match.
Un coéquipier incontrôlable et fantasque.
Pour remporter la victoire, il faut des coéquipiers fiables. Or, Grok traîne une réputation de joueur instable, capable du meilleur comme du pire. Comme beaucoup de grands modèles de langage (LLM), il peut affirmer des contre-vérités avec une confiance absolue.
Son palmarès est entaché de dérapages incontrôlés : réponses haineuses, contenus racistes, voire glorification de figures historiques sombres. « Est-ce vraiment l’outil auquel le Pentagone peut faire confiance ? Du moins, tel qu’il fonctionne actuellement ? », s’interroge Jurgita Lapienytė. Dans l’arène de la défense nationale, où chaque décision peut être une question de vie ou de mort, aligner un joueur aussi imprévisible relève de la roulette russe, pas de la haute stratégie.