WASHINGTON : Défense – MUSK marque un point décisif f…
Partager :
WASHINGTON : Défense – MUSK marque un point décisif face à Anthropic dans l’arène du Pentagone
Le Pentagone choisit Grok pour ses opérations militaires et sanctionne l’éthique d’Anthropic, un pari risqué critiqué par les experts de Cybernews.
C’est un véritable coup de tonnerre qui vient de retentir dans le championnat mondial de la Tech et de la Défense ! Alors que la compétition fait rage pour décrocher les contrats les plus lucratifs de l’armée américaine, le Pentagone vient de rendre un arbitrage qui change radicalement la physionomie du match. Elon Musk et son intelligence artificielle Grok s’emparent du maillot jaune, validés pour les opérations militaires classifiées, tandis qu’Anthropic se retrouve sur le banc de touche, pénalisé pour avoir voulu jouer la carte de la sécurité éthique avec son IA Claude.
Ce revirement stratégique ne passe pas inaperçu. Jurgita Lapienytė, rédactrice en chef de Cybernews (https://cybernews.com/), monte au filet pour analyser cette action controversée qui pourrait bien redéfinir les règles du jeu international.
Un tacle glissé sur les règles de sécurité
Dans cette rencontre au sommet, le fair-play semble avoir été oublié aux vestiaires. Anthropic, créateur de Claude, a tenté de maintenir sa ligne défensive en refusant de supprimer ses garde-fous éthiques. Résultat ? Une sanction immédiate du gouvernement américain.
Pour Jurgita Lapienytė, l’arbitre a perdu le contrôle : « Oui, le gouvernement ne devrait permettre à aucune entreprise de dicter les termes des opérations de défense. Mais les entreprises d’IA doivent-elles être punies pour avoir des règles de sécurité ? ».
L’experte prévient que ce carton rouge adressé à l’éthique risque de pousser les autres joueurs à la faute. « Si les plus grands acteurs du marché sont forcés de se mettre à genoux, les plus petites entreprises cesseront elles aussi d’avoir des règles de sécurité. Être « sûr » deviendra-t-il mauvais pour les affaires ? », s’interroge-t-elle avec vigueur.
Un terrain de jeu miné et déshumanisé
Le plus inquiétant dans ce nouveau schéma tactique, c’est l’utilisation même de l’outil sur le terrain. L’IA, si elle n’est pas strictement encadrée, transforme le champ de bataille en jeu vidéo, une dérive que Jurgita Lapienytė dénonce fermement.
« Actuellement, l’IA est non seulement indigne de confiance mais aussi très dangereuse lorsqu’elle n’est pas surveillée », lance-t-elle.
Elle pointe du doigt un risque majeur de déresponsabilisation des officiers et des soldats : « Dans les opérations militaires, elle peut être utilisée pour déshumaniser les opérations en offrant des expériences gamifiées ». Une vision glaçante où la prise de décision létale pourrait être déléguée à des algorithmes, sans véritable contrôle humain.
Arbitrage politique ou performance technique ?
L’analyse du ralenti laisse planer un doute sur l’impartialité de la décision. Alors que Grok a été propulsé sur la voie rapide, l’IA de Musk fait face à des amendes et des interdictions dans d’autres ligues internationales.
« Ce qui semble s’être produit ici, c’est que, dans le feu de la discussion publique, une autre entreprise a été favorisée », observe la rédactrice en chef de Cybernews.
Pour elle, le public est en droit d’attendre que son gouvernement sélectionne la meilleure technologie pour la défense, et non celle qui bénéficie du meilleur lobbying politique au moment T.
Un match à impact mondial
Les répercussions de ce transfert technologique dépassent largement les frontières américaines. C’est toute la scène internationale qui observe ce changement de doctrine.
« Lorsque l’armée la plus puissante du monde commence à utiliser l’IA sans être transparente sur la manière exacte dont elle le fait, on peut commencer à se demander à quel point les opérations américaines à l’étranger sont influencées par l’algorithme », avertit Jurgita Lapienytė.
Le message est clair : chaque pays en conflit ou en compétition avec les États-Unis doit désormais surveiller ce développement comme le lait sur le feu.
Cybernews : un palmarès d’investigation impressionnant
Si l’avis de Jurgita Lapienytė pèse si lourd dans la balance, c’est que son équipe chez Cybernews (https://cybernews.com/) affiche des statistiques d’investigation dignes des plus grands champions. Reconnue « Journaliste cybersécurité de l’année », elle dirige une équipe qui enchaîne les performances de haut vol.
Leur tableau de chasse récent parle pour eux :
* Ils ont débusqué 16 milliards d’identifiants de connexion exposés dans des bases de données ouvertes.
* Ils ont révélé que 71 % des applications iOS analysées exposaient des données sensibles.
* Ils ont mis au jour une faille massive touchant un tiers de la population américaine via la firme MC2 Data.
* Ils ont même taclé la NASA en découvrant une vulnérabilité sur leur site d’astrobiologie.
Avec une telle expertise technique, leur analyse de l’arrivée de Grok au Pentagone sonne comme un avertissement sérieux. Le coup de sifflet final n’a pas encore retenti, mais le match de l’IA militaire vient d’entrer dans une phase critique où l’éthique semble avoir été mise hors-jeu.