Passer au contenu principal

WASHINGTON : Défense – L’IA d’Elon Musk a…

Partager :

WASHINGTON : Défense – L’IA d’Elon Musk au Pentagone, un pari risqué pour la sécurité nationale

Alors que le Pentagone intègre Grok, le chatbot d’intelligence artificielle d’Elon Musk, une analyse de Cybernews met en garde contre les failles de sécurité et le danger d’une confiance aveugle envers des algorithmes faillibles.

L’intelligence artificielle s’invite au cœur du complexe militaro-industriel américain, mais cette adoption ne se fait pas sans heurts ni inquiétudes. La décision du Pentagone d’adopter Grok, l’IA développée par xAI (l’entreprise d’Elon Musk), soulève des questions critiques sur la souveraineté numérique et la sécurité opérationnelle des forces armées. Jurgita Lapienytė, rédactrice en chef de Cybernews (https://cybernews.com/), livre une analyse sans concession des risques inhérents à ce déploiement technologique.

Pour l’experte, le danger principal ne réside pas dans un scénario de science-fiction où les robots se rebelleraient, mais dans une réalité bien plus triviale et inquiétante : « Le risque, ce sont les humains qui suivent aveuglément les conseils erronés de l’IA vers le désastre », explique-t-elle.

Une surface d’attaque élargie.

L’intégration d’un chatbot grand public, même adapté, dans les réseaux de défense crée mécaniquement de nouvelles vulnérabilités. « Chaque nouveau point d’accès à l’IA branché sur les réseaux de défense est une porte supplémentaire que les attaquants peuvent tenter de tromper, d’empoisonner ou de briser », prévient Jurgita Lapienytė.

L’inquiétude est d’autant plus vive que les ressources allouées à la sécurité chez xAI semblent limitées par rapport aux standards du secteur. L’équipe de sécurité de l’entreprise d’Elon Musk est décrite comme restreinte comparée à celles de ses concurrents, ce qui implique « moins de ressources pour gérer l’immense périmètre d’attaque que représente chaque application d’IA de nos jours ».

Le facteur humain : le maillon faible.

L’efficacité promise par l’IA pourrait se transformer en cauchemar de cybersécurité si les responsables militaires alimentent Grok avec des informations sensibles pour analyse. L’histoire récente a prouvé que la formation des hauts fonctionnaires aux outils numériques reste perfectible.

L’analyste rappelle à ce titre le « scandale Signal », un incident durant lequel l’administration américaine a accidentellement transmis des plans de guerre à un journaliste via l’application de messagerie sécurisée.  « Nous ne sommes plus aussi naïfs désormais, n’est-ce pas ? », interroge Jurgita Lapienytė. Si des erreurs humaines se produisent sur de simples messageries, l’utilisation d’une IA générative par des officiels mal formés pourrait offrir une opportunité en or aux acteurs malveillants, y compris aux pirates étatiques. Le risque est de voir Grok transformé en un « outil de surveillance géant du Pentagone » à l’insu de ses utilisateurs.

Hallucinations et dérapages éthiques.

Au-delà du piratage, la fiabilité même des réponses de l’IA est mise en cause. Comme beaucoup de grands modèles de langage (LLM), Grok est susceptible de produire des réponses factuellement incorrectes avec une confiance déconcertante.

Le passif de l’outil n’incite pas à l’optimisme dans un contexte militaire rigoureux. Le chatbot a déjà généré par le passé des contenus haineux ou totalement erronés, allant de propos racistes à la glorification de figures historiques controversées. « Est-ce vraiment l’outil auquel le Pentagone peut faire confiance ? Du moins, dans son fonctionnement actuel ? », conclut l’experte de Cybernews.

Alors que la guerre moderne se joue autant sur le terrain que dans le cyberespace, le choix d’un outil controversé pour épauler la première armée du monde place les enjeux économiques et éthiques de l’IA au centre du débat politique à Washington.