vendredi, février 27
Dario Amodei, à New York, le 3 décembre 2025.

[L’administration Trump a demandé à Anthropic, entreprise américaine spécialisée dans l’intelligence artificielle (IA), de permettre au Pentagone d’utiliser sans contraintes son modèle, Claude. Dario Amodei, le dirigeant de la société, a refusé, dans un communiqué diffusé jeudi 26 février, de lever les garde-fous inclus dans sa solution, et ce, sur deux points : la surveillance de masse aux Etats-Unis et les armes entièrement autonomes. Nous traduisons ci-dessous son texte, en complément de l’article de notre correspondant à San Francisco, Arnaud Leparmentier, à ce sujet.]

Dario Amodei : Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et d’autres démocraties, et pour vaincre nos adversaires autocratiques. Anthropic a donc travaillé de manière proactive pour déployer nos modèles au sein du département de la guerre [le nouveau nom du ministère de la défense des Etats-Unis] et de la communauté du renseignement.

Nous avons été la première entreprise, dans le domaine de l’IA, à déployer nos modèles dans les réseaux classifiés du gouvernement des Etats-Unis et dans les laboratoires nationaux ; la première aussi à fournir des modèles personnalisés à nos clients du secteur de la sécurité nationale. Claude est largement mis en œuvre au sein du département de la guerre et d’autres agences de sécurité nationale pour des applications critiques, telles que l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle, les cyberopérations…

Il vous reste 79.07% de cet article à lire. La suite est réservée aux abonnés.

Share.
Exit mobile version