Le président Donald Trump a ordonné à toutes les agences gouvernementales américaines de cesser d’utiliser Claude et d’autres services d’Anthropic, aggravant une querelle déjà volatile entre le Département de la Défense et l’entreprise au sujet des garanties liées à l’IA. S’adressant sur Truth Social vendredi après-midi, le président a déclaré qu’il y aurait une période de transition de six mois pour les agences fédérales, y compris le Département de la Défense, afin de migrer hors des produits d’Anthropic.
« Les extrémistes de gauche chez Anthropic ont commis une ERREUR DÉVASTATRICE en tentant de mettre sous pression le Département de la Guerre, et de les forcer à obéir à leurs Conditions d’Utilisation plutôt qu’à notre Constitution », a écrit le président. « Anthropic ferait bien de remettre de l’ordre dans ses affaires et d’être utile pendant cette période de retrait, sinon j’utiliserai la Pleine Puissance de la Présidence pour les faire se conformer, avec de lourdes conséquences civiles et pénales à suivre. »
Avant aujourd’hui, le secrétaire à la Défense des États-Unis, Pete Hegseth, avait menacé de considérer Anthropic comme un « risque de chaîne d’approvisionnement » s’il n’acceptait pas de retirer les garanties qui imposent que Claude ne soit pas utilisé pour la surveillance de masse des Américains ou dans des armes entièrement autonomes. Dans une publication sur X publiée après la déclaration du président Trump, Hegseth a déclaré qu’il « dirigeait le Département de la Guerre pour désigner Anthropic comme un Risque de chaîne d’approvisionnement à la sécurité nationale. À compter de maintenant, aucun contractant, fournisseur ou partenaire qui fait affaire avec l’armée des États-Unis ne peut mener une activité commerciale avec Anthropic. »
Anthropic n’a pas immédiatement répondu à la demande de commentaire d’Engadget. Plus tôt dans la journée, un porte-parole de l’entreprise a déclaré que le contrat reçu par Anthropic après que le PDG Dario Amodei eut exposé la position d’Anthropic avait « pratiquement aucun progrès » pour empêcher les abus décrits.
« De nouvelles formulations présentées comme un compromis étaient accompagnées d’un jargon juridique qui permettrait d’ignorer ces garde-fous à volonté. Malgré les récentes déclarations publiques du DOW, ces garde-fous restreints ont été le cœur de nos négociations depuis des mois », a déclaré le porte-parole. « Nous restons prêts à poursuivre les discussions et déterminés à assurer la continuité opérationnelle pour le Département et les combattants américains. »
Des groupes de plaidoyer tels que le Center for Democracy and Technology (CDT) se sont rapidement prononcés contre les menaces du président. « Cette action crée un précédent dangereux. Elle gèle la capacité des entreprises privées à dialoguer franchement avec le gouvernement sur les usages appropriés de leur technologie, ce qui est particulièrement important dans les contextes de sécurité nationale qui présentent souvent une visibilité publique réduite », a déclaré Alexandra Givens, présidente et directrice générale du CDT, dans une déclaration partagée avec Engadget. « Ces menaces sapent l’intégrité de l’écosystème d’innovation, déforment les incitations du marché et normalisent une vision expansive du pouvoir exécutif qui devrait inquiéter les Américains de tous les horizons politiques. »
Pour l’instant, il semble que l’industrie de l’IA soit unie derrière Anthropic. Vendredi, des centaines d’employés de Google et d’OpenAI ont signé une lettre ouverte exhortant leurs entreprises à se montrer en « solidarité » avec le laboratoire. Selon une note interne consultée par Axios, le PDG d’OpenAI, Sam Altman, aurait déclaré que le créateur de ChatGPT tracerait la même ligne rouge qu’Anthropic.
Dans un billet publié tard vendredi, Anthropic s’est engagé à « contester toute designation de risque de chaîne d’approvisionnement devant les tribunaux », et a assuré à ses clients que seul le travail lié au Département de la Défense serait affecté. La déclaration complète de l’entreprise est disponible ici, un extrait est ci-dessous :
« Désigner Anthropic comme un risque de chaîne d’approvisionnement serait une action sans précédent — historiquement réservée aux adversaires des États-Unis, jamais auparavant appliquée publiquement à une entreprise américaine. Nous sommes profondément attristés par ces développements. En tant que première entreprise IA de frontière à déployer des modèles dans les réseaux classifiés du gouvernement américain, Anthropic soutient les combattants américains depuis juin 2024 et a l’intention de continuer à le faire. »
« Nous estimons que cette designation serait à la fois juridiquement infondée et créerait un dangereux précédent pour toute entreprise américaine qui négocie avec le gouvernement. »
« Aucune intimidation ni punition du Département de la Guerre ne modifiera notre position sur la surveillance de masse à l’échelle domestique ou sur les armes entièrement autonomes. Nous contesterons toute designation de risque de chaîne d’approvisionnement devant les tribunaux. »
Mise à jour, le 27 février, 21 h ET : Cette histoire a été mise à jour à deux reprises après publication. D’abord à 18 h ET pour inclure un lien vers et des citations de Hegseth sur la designation d’Anthropic comme risque de chaîne d’approvisionnement. Plus tard, une citation d’Anthropic a été ajoutée, ainsi qu’un lien vers le billet du blog de l’entreprise sur le sujet.