Anthropic refuse de céder à l’ultimatum du Pentagone, et bloque l’utilisation de son IA pour la surveillance de masse et les armes autonomes

| 4,746


Dario Amodei, patron d’Anthropic, à l’AI Impact Summit, à New Delhi, en Inde, le 19 février 2026.

Pete Hegseth, le secrétaire à la défense de Donald Trump, avait donné jusqu’à vendredi 27 février 17 heures à Dario Amodei, patron d’Anthropic, pour qu’il permette au Pentagone d’utiliser sans contraintes son modèle d’intelligence artificielle (IA) Claude. La réponse à l’ultimatum est tombée dès jeudi après-midi 26 février : c’est non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit M. Amodei en conclusion d’un long communiqué.

« Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit M. Amodei, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

L’entrepreneur entend continuer d’exclure deux domaines pour l’emploi de son IA, la « surveillance intérieure de masse » et les « armes complètement autonomes » et rappelle que ces deux cas d’utilisation « n’ont jamais été inclus dans nos contrats avec le département de la guerre, et nous estimons qu’ils ne devraient pas l’être maintenant ».

Il vous reste 71.28% de cet article à lire. La suite est réservée aux abonnés.



Source link