Une raréfaction rare de soutiens entoure la bataille judiciaire entre Anthropic et l’administration américaine : la start-up, désignée par le gouvernement comme entreprise « à risque », a vu des acteurs majeurs du secteur et de la justice prendre position, soulevant des questions qui dépassent le seul litige. Ce dossier pourrait redessiner les limites entre sécurité nationale, liberté d’expression et autonomie des entreprises technologiques.
Plusieurs grandes sociétés concurrentes — dont Google, OpenAI et Microsoft — ont déposé des mémoires d’amicus curiae pour appuyer Anthropic, qui conteste en justice la décision gouvernementale. Ces documents permettent à des tiers d’apporter au tribunal des éclairages techniques et juridiques indépendants.
Selon CNN, près de 150 anciens juges fédéraux et d’État ont eux aussi signé un mémoire similaire, estimant que la qualification prononcée par le Pentagone repose sur une mauvaise lecture de la loi et sur des vices de procédure. Ils soulignent qu’en pratique, l’État ne peut pas contraindre une société privée à accepter un contrat militaire et s’alarment du précédent que créerait une telle sanction.
Un précédent aux conséquences larges
La portée de la décision dépasse le cas d’espèce : la désignation « à risque » était jusqu’ici appliquée à des entreprises étrangères comme Kaspersky ou Huawei. Son extension à une start-up américaine soulève la crainte d’une influence accrue de l’exécutif sur les choix commerciaux et technologiques des sociétés privées.
Concrètement, une telle étiquette peut compliquer l’accès aux marchés liés à la défense et fragiliser des contrats en cours. Néanmoins, Google, Microsoft et Amazon ont déclaré qu’ils continueraient, pour l’instant, à héberger les modèles d’Anthropic pour les utilisateurs non liés au ministère de la Défense.
Soutiens civiques et protection des libertés
Outre les juges et les acteurs du numériques, des organisations de défense des libertés, dont l’American Civil Liberties Union (ACLU) et le Center for Democracy and Technology (CDT), ont déposé un mémoire. Elles mettent en avant le rôle d’Anthropic dans l’appel public en faveur de garde-fous et avertissent des risques d’une surveillance de masse si la technologie est soumise à des usages militaires indiscriminés.
La position de ces associations mêle deux arguments : la protection du discours public (qualifiée de protégée par le First Amendment) et la nécessité d’une intervention législative pour prévenir l’usage abusif des outils d’IA par l’État.
La réponse de l’exécutif et la suite
Le 17 mars, l’administration américaine a répliqué par un mémoire de quarante pages déposé devant une cour californienne, rapporté par le New York Times. Le gouvernement maintient que la start-up représente un « risque inacceptable » pour la sécurité nationale, arguant que la société pourrait modifier ses systèmes pour servir des intérêts propres plutôt que les priorités du pays en cas de conflit.
Malgré ces débats juridiques, certains rapports indiquent que des usages opérationnels de l’IA d’Anthropic n’ont pas été systématiquement interrompus, mais les contours et l’ampleur de ces emplois militaires restent flous dans les documents publics.
| Acteur | Type de soutien | Argument principal |
|---|---|---|
| Google, OpenAI, Microsoft | Mémoires d’amicus curiae | Risque de précédent et éclairages techniques en faveur d’Anthropic |
| ~150 anciens juges | Mémoire collectif | Erreur d’interprétation de la loi et procédure contestable |
| ACLU, CDT | Mémoire d’amicus curiae | Protection du discours public et risques de surveillance |
| Administration américaine (Pentagone) | Réponse judiciaire | Considère Anthropic comme un risque pour la sécurité nationale |
Au-delà du procès, l’enjeu est politique et sectoriel : comment concilier sécurité nationale et indépendance des entreprises technologiques, tout en garantissant des garanties éthiques sur l’usage des IA ? La décision du tribunal californien servira de test et pourrait encourager une intervention législative si le Congrès décide de clarifier les règles.
La procédure suit son cours et les prochains échanges juridiques détermineront si l’administration a outrepassé ses prérogatives ou si sa désignation restera justifiée. Pour les observateurs du secteur, le verdict pèsera autant sur l’avenir commercial d’Anthropic que sur la gouvernance de l’IA aux États-Unis.
Articles similaires
- Anthropic saisit la justice contre une sanction de Trump: avantage possible pour rivaux chinois
- Blocus américain sur des entreprises chinoises bien connues – Plus de ventes pour Huawei et ZTE
- Donald Trump : l’application Truth Social arrive-t-elle sur le Google Play Store ?
- Un chien trouvé dans une valise lors du contrôle des bagages à l’aéroport
- Sam Altman d’OpenAI admet que le Pentagone peut utiliser son IA : conflit avec Anthropic










