Le Pentagone a confirmé vendredi la signature d’accords avec sept entreprises technologiques pour autoriser l’utilisation de leurs modèles d’intelligence artificielle dans des missions classifiées, une décision qui relance le débat sur le rôle de l’IA dans les opérations militaires et sur les limites du partenariat public-privé. En excluant la start-up Anthropic, en litige avec Washington, l’administration cherche à diversifier ses fournisseurs tout en gardant le contrôle humain sur les frappes et les décisions sensibles.
Un choix stratégique pour réduire la dépendance
Le ministère de la Défense explique vouloir éviter une trop forte dépendance à un unique fournisseur et garantir une capacité d’adaptation sur le long terme. Selon le Pentagone, les outils sélectionnés aideront à « accélérer la transformation » des forces armées vers des capacités augmentées par l’IA, notamment pour la synthèse rapide des données et l’analyse contextuelle en situations complexes.
Parmi les entreprises retenues figurent des acteurs variés — grands groupes cloud, concepteurs de modèles et laboratoires spécialisés — choisis pour fournir des modèles utilisables dans des environnements classifiés de haut niveau.
| Entreprise | Rôle annoncé |
|---|---|
| SpaceX / xAI | Fourniture de modèles d’IA |
| OpenAI | Modèles et partenariats techniques |
| Modèles et intégration cloud | |
| Nvidia | Accélération matérielle et optimisation |
| Reflection | Solutions d’IA spécialisées |
| Microsoft | Plateformes et hébergement sécurisé |
| AWS (filiale d’Amazon) | Services cloud sécurisés |
Des utilisations limitées et contrôlées
Le Pentagone précise que ces modèles seront mis en œuvre pour des tâches classées au **niveau 6 et 7**, les catégories les plus sensibles, où l’IA doit surtout assister la collecte et la compréhension de l’information. Le rôle annoncé est celui d’outil d’aide à la décision : affiner la synthèse des signaux, repérer des corrélations, fournir des options à des opérateurs humains.
Le ministère insiste : même lorsque l’IA intervient dans la chaîne d’information, les responsabilités opérationnelles — comme le choix d’une cible ou le déclenchement d’une frappe — restent sous l’autorité exclusive des militaires. Cette borne éthique et juridique est au coeur des discussions entre États et entreprises.
Anthropic écartée, un contentieux encore en cours
Anthropic, dont le modèle **Claude** avait jusqu’ici été le seul autorisé pour certaines opérations classifiées, a été exclue de ces nouveaux accords. La start-up conteste devant la justice l’arrêt de ses contrats prononcé fin février par l’administration précédente. L’entreprise avait conditionné certains usages de ses modèles, refusant notamment qu’ils servent à la surveillance de masse ou à des attaques létales — des garanties rejetées comme insuffisantes par le Pentagone.
Ce désaccord illustre la friction croissante entre impératifs de sécurité nationale et engagements éthiques des fournisseurs d’IA.
- Conséquences techniques : diversification des prestataires, réduction du risque de rupture de service.
- Conséquences juridiques : contentieux en cours avec Anthropic et pressions sur les contrats futurs.
- Enjeux éthiques : débats sur l’utilisation militaire de modèles conçus par des acteurs privés.
Réactions internes et pressions des salariés
La décision a suscité une vive réaction interne chez certains fournisseurs. Plus de 600 employés de Google ont adressé une lettre à leur direction pour demander l’arrêt de la fourniture de modèles destinés à des opérations classifiées. Les signataires invoquent des risques éthiques et opérationnels, rappelant que l’acceptation par les entreprises de missions militaires soulève des questions de responsabilité et d’image.
Face à ces tensions, les autorités et les groupes technologiques devront conjuguer sécurité opérationnelle, respect du droit et réponses aux inquiétudes du personnel. Le verdict de la justice dans l’affaire Anthropic et la manière dont les entreprises appliqueront leurs propres garde-fous seront des éléments à suivre de près dans les semaines à venir.
Articles similaires
- Anthropic saisit la justice contre une sanction de Trump: avantage possible pour rivaux chinois
- Anthropic: 150 juges retraités se mobilisent pour des garde-fous à l’IA face à Trump
- Sam Altman d’OpenAI admet que le Pentagone peut utiliser son IA : conflit avec Anthropic
- Frappes iraniennes sur centres de données : l’économie numérique du golfe en péril
- Robots humanoïdes en Ukraine: une nouvelle escalade sur le front









