Anthropic a remporté une première manche dans la bataille judiciaire qui l’oppose à l’administration Trump, après qu’une juge fédérale a accordé à l’entreprise d’intelligence artificielle une injonction contre l’ordre du gouvernement la qualifiant de « supply chain risk » (risque pour la chaîne d’approvisionnement).
Le président américain Donald Trump et le secrétaire à la Défense Pete Hegseth avaient déclaré publiquement en février qu’ils rompaient leurs liens avec Anthropic après que celle-ci avait refusé d’autoriser un usage militaire sans restriction de son modèle d’IA Claude. Ces limites incluent l’utilisation d’armes autonomes létales sans supervision humaine et la surveillance de masse des Américains.
En réaction, le gouvernement américain a qualifié Anthropic de « supply chain risk to national security » (risque pour la chaîne d’approvisionnement et la sécurité nationale) et a ordonné aux agents fédéraux de cesser d’utiliser Claude.
La juge Rita F. Lin, du tribunal fédéral du district Nord de Californie, a déclaré dès l’ouverture de l’audience que « cela ressemble à une tentative de mettre Anthropic à genoux et de refroidir le débat public », parce que l’entreprise s’inquiétait de la manière dont le ministère américain de la Défense utilisait sa technologie.
Related
« Cela ressemble à une représaille classique contre l’exercice des droits garantis par le Premier amendement », a-t-elle ajouté.
Lin a estimé que les « vastes mesures punitives » prises contre l’entreprise d’IA par l’administration Trump et par Hegseth semblaient arbitraires, capricieuses et pourraient « mettre Anthropic à genoux », en particulier l’usage par Hegseth d’un pouvoir militaire exceptionnel jusqu’ici réservé à des adversaires étrangers.
« Rien, dans le texte de loi applicable, ne vient étayer l’idée orwellienne selon laquelle une entreprise américaine pourrait être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement », a écrit Lin.
Un porte-parole d’Anthropic a déclaré à Euronews Next que l’entreprise était « reconnaissante envers la justice pour la rapidité de sa décision, et se réjouissait qu’elle estime qu’Anthropic a de bonnes chances de l’emporter sur le fond ».
« Si cette procédure était nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière constructive avec le gouvernement afin que tous les Américains puissent bénéficier d’une IA sûre et fiable », a ajouté le porte-parole.
Anthropic a déposé en mars deux recours contre le gouvernement au sujet de sa désignation comme risque pour la chaîne d’approvisionnement. Le premier demande la révision de ce classement, le second accuse l’administration Trump d’avoir violé la liberté d’expression que lui garantit le Premier amendement.
L’ordonnance signifie désormais que la technologie d’Anthropic continuera d’être utilisée au sein du gouvernement et par des entreprises extérieures travaillant avec le ministère de la Guerre jusqu’à ce que le litige soit tranché.
Cet article a été mis à jour avec la déclaration d’Anthropic.
Ce texte a été traduit avec l’aide de l’intelligence artificielle. Signaler un problème : [[email protected]].











