loader-image
Port-au-Prince, HT
6:30 pm, Feb 28, 2026
temperature icon 26°C

Trump ordonne l’arrêt de l’IA d’Anthropic pour le gouvernement américain

Ce vendredi 27 février 2026, le président Donald Trump a demandé à son administration de cesser immédiatement toute utilisation de l’intelligence artificielle développée par la start-up californienne Anthropic. Cette décision survient après que la société a refusé de rendre sa technologie entièrement accessible à l’armée américaine. Sur sa plateforme Truth Social, Trump a déclaré : « J’ordonne à toutes les agences fédérales de cesser immédiatement toute utilisation de la technologie d’Anthropic. Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne travaillerons plus avec eux ». Il a qualifié le refus de la start-up d’« erreur désastreuse », accusant l’entreprise de mettre en danger « des vies américaines, nos troupes et la sécurité nationale ».

Ce vendredi 27 février 2026, le président Donald Trump a demandé à son administration de cesser immédiatement toute utilisation de l’intelligence artificielle développée par la start-up californienne Anthropic. Cette décision survient après que la société a refusé de rendre sa technologie entièrement accessible à l’armée américaine.

PHOTO DADO RUVIC, ARCHIVES REUTERS
PHOTO DADO RUVIC, ARCHIVES REUTERS

Sur sa plateforme Truth Social, Trump a déclaré : « J’ordonne à toutes les agences fédérales de cesser immédiatement toute utilisation de la technologie d’Anthropic. Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne travaillerons plus avec eux ». Il a qualifié le refus de la start-up d’« erreur désastreuse », accusant l’entreprise de mettre en danger « des vies américaines, nos troupes et la sécurité nationale ».

Les exigences d’Anthropic

Le PDG d’Anthropic a rappelé que l’entreprise maintient deux conditions non négociables :

  • Aucune utilisation de l’IA pour des armes entièrement autonomes — c’est-à-dire que l’IA ne doit jamais prendre seule les décisions de ciblage sur le champ de bataille.
  • Aucune surveillance de masse sur le territoire américain.

Selon la société, le dernier projet de contrat proposé par le Pentagone ne garantit pas que l’IA ne sera pas utilisée pour ces deux usages.

Des garanties jugées insuffisantes

D’après ABC News, Anthropic a expliqué que le « nouveau libellé » du contrat comporte un jargon juridique permettant de contourner à volonté les garanties de sécurité. La société estime que ces modifications, présentées comme un compromis, ne protègent pas efficacement contre l’utilisation de leur IA dans des armes autonomes ou la surveillance de masse.

Malgré les pressions du gouvernement, Anthropic a réaffirmé sa position : « Nous ne pouvons, en conscience, accéder à leur demande ».

Partager cet article :

Articles similaires