Passer au contenu principal

WASHINGTON : Défense – Le Pentagone sacrifie l’…

Partager :

WASHINGTON : Défense – Le Pentagone sacrifie l’éthique au profit de l’IA d’Elon MUSK

Le Pentagone valide Grok pour ses opérations classifiées, pénalisant la prudence d’Anthropic.

Un tournant économique et sécuritaire mondial.

C’est une décision qui fera date dans l’histoire de la technologie militaire et qui redessine brutalement les frontières entre sécurité nationale, éthique et performance économique. Le Pentagone vient d’approuver l’utilisation de Grok, l’intelligence artificielle développée par l’entreprise d’Elon Musk, pour ses opérations militaires classifiées. Ce choix intervient alors que l’administration américaine menace simultanément Anthropic, le créateur de l’IA Claude, de pénalités financières pour avoir refusé de supprimer ses garde-fous éthiques. Ce double mouvement envoie un signal économique sans équivoque au marché de la tech : la sécurité éthique est désormais un passif concurrentiel.

Jurgita Lapienytė, rédactrice en chef de Cybernews (https://cybernews.com/), média spécialisé dans la cybersécurité, analyse ce basculement : « Pour avoir craint que son modèle Claude ne soit utilisé pour la surveillance des citoyens américains ou pour développer des armes de destruction massive, l’entreprise leader de l’IA aux États-Unis s’est retirée du contrat avec le Pentagone et fait maintenant face à des pénalités pour avoir tenu bon ».

La sécurité éthique devenue un handicap concurrentiel

L’enjeu dépasse largement le cadre d’un simple contrat gouvernemental. Il s’agit d’une redéfinition des règles du jeu économique pour les géants de la Silicon Valley. Jusqu’ici, l’argument de la « sécurité » (safety) et de l’alignement éthique était un atout marketing et une garantie de fiabilité pour les investisseurs. La décision du Département de la Défense inverse cette logique.

« Si les plus grands acteurs du marché sont mis à genoux, les petites entreprises cesseront elles aussi d’avoir des règles de sécurité. Être « sûr » deviendra-t-il mauvais pour les affaires ? », s’interroge Jurgita Lapienytė.

Cette doctrine du « laissez-faire » technologique, justifiée par l’impératif de compétitivité face aux rivaux géopolitiques, crée un précédent dangereux. Les entreprises qui investissent des millions dans la sûreté de leurs algorithmes se retrouvent désavantagées face à des concurrents proposant des solutions plus permissives, voire débridées, comme Grok.

L’approbation rapide de la solution d’Elon Musk, alors même que ses entreprises font face à des amendes et des interdictions dans d’autres juridictions, suggère que « la décision est basée sur la politique, pas sur la sécurité », souligne l’experte.

Vers une « gamification » de la guerre et une déresponsabilisation

Au-delà de l’aspect purement business, l’intégration d’une IA connue pour son absence de filtres dans la chaîne de commandement militaire soulève des questions sociétales vertigineuses. Le risque n’est pas celui d’une révolte des machines façon science-fiction, mais celui d’une bureaucratie de la létalité, opaque et automatisée.

« Actuellement, l’IA est non seulement indigne de confiance mais aussi très dangereuse lorsqu’elle n’est pas surveillée », avertit Jurgita Lapienytė.

Selon l’analyse de Cybernews, l’utilisation de ces technologies dans des opérations militaires risque de « déshumaniser les opérations en offrant des expériences gamifiées aux officiers et aux soldats, et en déplaçant la responsabilité personnelle ».

Cette transformation du champ de bataille en interface numérique, où la décision de tuer est suggérée par un algorithme dépourvu de conscience morale, pourrait abaisser le seuil d’engagement des conflits. L’absence de garde-fous, spécifiquement demandée par le Pentagone à Anthropic et acceptée implicitement par le choix de Grok, valide l’idée que l’efficacité opérationnelle prime sur le droit humanitaire ou la protection des civils.

Un risque systémique pour les alliés des États-Unis

Les répercussions de ce choix souverain américain vont se faire sentir bien au-delà de Washington. Pour les alliés des États-Unis, notamment au sein de l’OTAN, cette dépendance accrue à des algorithmes « boîte noire » pose un problème de souveraineté et de confiance.

« Lorsque l’armée la plus puissante du monde commence à utiliser l’IA sans être transparente sur la manière exacte dont elle le fait, on peut commencer à se demander à quel point les opérations américaines à l’étranger sont influencées par l’algorithme », précise Jurgita Lapienytė.

Dans un contexte mondial instable, où la cyberguerre est devenue une réalité quotidienne, l’introduction d’une IA peu régulée au cœur du dispositif de défense américain constitue une variable d’incertitude majeure.

« Chaque pays en conflit avec les États-Unis devrait surveiller de près cette évolution », conclut la rédactrice en chef.

Pour les acteurs économiques et territoriaux, le message est clair : l’ère de l’autorégulation éthique de l’IA semble toucher à sa fin dès lors que les impératifs de défense entrent en jeu. La performance brute et la permissivité de l’outil deviennent les nouveaux standards du marché, au risque de fragiliser les structures démocratiques que ces technologies sont censées défendre.