Bras de fer entre Anthropic et le Pentagone : l’IA face à ses limites éthiques et militaires
Washington / San Francisco, 27 février 2026 – À quelques heures d’une échéance cruciale, le géant de l’intelligence artificielle Anthropic maintient sa position ferme face aux pressions intenses du Département de la Défense américain (Pentagone). Le CEO Dario Amodei a réaffirmé jeudi que sa société « ne peut en conscience » accepter les exigences du secrétaire à la Défense Pete Hegseth, qui réclame un accès sans restriction au modèle Claude pour « tout usage légal » militaire.Le conflit, qui couve depuis plusieurs mois, a atteint son paroxysme cette semaine. Anthropic, connu pour son engagement en faveur d’une IA « sûre et responsable », a déployé Claude – l’un des modèles les plus avancés du marché – sur les réseaux classifiés du gouvernement américain, devenant le premier modèle frontalier autorisé à ce niveau de sensibilité. Le contrat en jeu, évalué jusqu’à 200 millions de dollars, porte sur des applications de renseignement, de planification opérationnelle et d’analyse stratégique.Mais le Pentagone, sous la direction de Pete Hegseth, exige désormais la suppression des garde-fous éthiques intégrés par Anthropic. Deux « lignes rouges » restent non négociables pour l’entreprise :
Dans un communiqué publié jeudi sur le site d’Anthropic, Dario Amodei a expliqué que les propositions les plus récentes du Pentagone « n’ont quasiment pas progressé » sur ces points essentiels. « Ces menaces ne changent pas notre position : nous ne pouvons pas en conscience accéder à leur demande », a-t-il déclaré, soulignant que Claude n’est pas encore suffisamment fiable pour des décisions de vie ou de mort sans contraintes strictes.En réponse, le Pentagone a fixé une deadline inflexible : vendredi 27 février à 17h01 (heure de l’Est). Passé ce délai, les menaces incluent :
Ces menaces ont suscité stupeur et critiques dans les cercles de la tech et de la politique. Des observateurs pointent l’incohérence : d’un côté, traiter Anthropic comme un danger pour la sécurité nationale ; de l’autre, affirmer que son IA est si critique qu’il faut la contraindre à coopérer. Des experts en droit et en politique IA qualifient l’approche de « contradictoire » et « sans précédent » lorsqu’elle vise une entreprise américaine.Anthropic, qui a toujours prôné la sécurité comme valeur fondatrice (via sa « Constitution » interne pour Claude), se dit prêt à perdre ce partenariat stratégique plutôt que de compromettre ses principes. La société continue d’affirmer son soutien à la défense nationale, mais dans des limites éthiques claires.Ce bras de fer soulève des enjeux majeurs pour l’avenir de l’IA :
Alors que l’échéance approche à grands pas, l’industrie suit l’affaire minute par minute. Une résolution de dernière minute reste possible, mais pour l’instant, Anthropic tient bon – au risque de devenir la première entreprise tech américaine à être « blacklistée » par son propre gouvernement.Qu’en pensez-vous ? Les garde-fous éthiques doivent-ils primer, même au prix d’un conflit avec le Pentagone ? Partagez votre avis en commentaire !(Sources : communiqués Anthropic, déclarations de Dario Amodei, The Guardian, Reuters, Axios, The New York Times, Politico, NPR, Washington Post – février 2026)
Commentaires (1)
Participer à la Discussion
Règles de la communauté :
💡 Astuce : Utilisez des emojis depuis votre téléphone ou le module emoji ci-dessous. Cliquez sur GIF pour ajouter un GIF animé. Collez un lien X/Twitter, TikTok ou Instagram pour l'afficher automatiquement.