Notebookcheck Logo

Anthropic rejette la demande du Pentagone d'ouvrir l'IA de Claude aux systèmes d'armes sans pilote ou à la surveillance de masse

Le drone Textron Aerosonde Mk. 4.7 UAS.
ⓘ Textron Systems
Le drone Textron Aerosonde Mk. 4.7 UAS.
Anthropic devrait rester la première entreprise d'IA en ce qui concerne la sécurité et la responsabilité sociale de ses modèles. Malgré toutes les répercussions potentielles, elle a refusé la demande du Pentagone de supprimer les garde-fous contre l'utilisation militaire et la surveillance inhérents à son agent Claude AI.

Anthropic, le géant de l'IA, laissera passer la date limite du 27 février fixée par le Pentagone pour dépouiller son modèle Claude de toutes les protections nécessaires à son utilisation militaire.

Selon Dario Amodei, PDG d'Anthropic, la société d'IA ne peut pas ouvrir Claude pour faire fonctionner des systèmes d'armes sans pilote ou pour la surveillance de masse des citoyens américains en toute bonne conscience, parce qu'elle n'est ni suffisamment sûre ni suffisamment fiable pour répondre à cet objectif.

Claude d'Anthropic est à la fois l'un des principaux agents d'intelligence artificielle existants et le plus axé sur la sécurité, avec des garde-fous intégrés contre l'utilisation malveillante de ses outils d'intelligence artificielle. Le ministère américain de la guerre (DoW), cependant, exige que les modèles d'IA qu'il achète soient développés et mis à jour que les modèles d'IA qu'il achète soient dépourvus de toute restriction autre que ses propres restrictions obscures en matière d'"utilisation légale" :

La diversité, l'équité et l'inclusion ainsi que l'idéologie sociale n'ont pas leur place au DoW, et nous ne devons donc pas utiliser de modèles d'IA qui intègrent un "réglage" idéologique qui interfère avec leur capacité à fournir des réponses objectivement véridiques aux invites de l'utilisateur.

Le département doit également utiliser des modèles exempts de contraintes de politique d'utilisation susceptibles de limiter les applications militaires licites. Par conséquent, j'ordonne au CDAO d'établir des critères d'objectivité des modèles en tant que critère principal d'acquisition dans les 90 jours, et j'ordonne au sous-secrétaire à la guerre pour l'acquisition et le soutien d'incorporer la formulation standard "toute utilisation légale" dans tout contrat du DoW par le biais duquel des services d'IA sont acquis dans un délai de 180 jours.

Le Pentagone a maintenant menacé Anthropic de répercussions désastreuses qui vont au-delà de l'impact sur son bilan. Outre la mise en péril de l'actuel contrat plafonné à 200 millions de dollars pour la fourniture d'outils d'IA au Pentagone, Anthropic risque d'être désignée comme présentant un risque pour la chaîne d'approvisionnement ou d'être invitée à supprimer les obstacles à l'utilisation militaire de Claude en vertu de la loi des années 1950 conçue pour forcer les entreprises américaines à se conformer à la loi pendant la guerre de Corée pour des raisons de sécurité nationale.

La désignation de risque pour la chaîne d'approvisionnement est généralement réservée aux entreprises ayant des liens potentiels avec des acteurs étatiques malveillants tels que la société chinoise Huawei ou la société russe Kaspersky, de sorte que l'inscription d'Anthropic sur cette liste pourrait porter un coup sérieux à son potentiel de rentabilité. Malgré le risque de devenir un paria de l'IA pour l'actuelle administration de la Maison Blanche, M. Amodei insiste sur le fait queles systèmes d'IA actuels"ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes" et que"l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques"

Le modèle Claude d'Anthropic a été le modèle de référence lorsque le gouvernement a voulu pour la première fois utiliser des outils d'IA pour trier des informations classifiées et a été utile lors de la planification du raid qui a permis de capturer l'homme fort vénézuélien Maduro. Dario Amodei espère donc que le Pentagone reconsidérera sa position sur les deux scénarios de la ligne rouge qu'il continuera à restreindre dans ses modèles d'IA.

Source(s)

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Nouvelles > Archives des nouvelles > Archives des nouvelles 2026 02 > Anthropic rejette la demande du Pentagone d'ouvrir l'IA de Claude aux systèmes d'armes sans pilote ou à la surveillance de masse
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)