Anthropic, l’une des entreprises technologiques à la croissance la plus rapide aujourd’hui, se retrouve dans un conflit aux enjeux élevés avec le Pentagone au sujet de ses restrictions de sécurité en matière d’IA. Le conflit porte sur la question de savoir si l’entreprise autorisera l’utilisation de ses modèles avancés, notamment les nouveaux Claude Opus 4.6 et Sonnet 4.6, à des fins militaires sans compromettre ses lignes éthiques déclarées. Le Pentagone a indiqué qu’il pourrait désigner Anthropic comme un « risque pour la chaîne d’approvisionnement » – une désignation généralement réservée aux adversaires étrangers – si l’entreprise ne cède pas.
L’essor d’Anthropic et de son IA avancée
Anthropic, fondée par d’anciens dirigeants d’OpenAI en 2021, a rapidement atteint une valorisation de 380 milliards de dollars après avoir clôturé un cycle de financement de 30 milliards de dollars. Les derniers modèles de la société, Opus 4.6 et Sonnet 4.6, représentent des avancées significatives dans les capacités de l’IA. L’Opus 4.6 peut désormais coordonner des équipes d’agents autonomes, permettant à plusieurs IA de travailler en parallèle. Sonnet 4.6 correspond presque aux compétences de codage et d’informatique d’Opus tout en étant moins cher, et les deux modèles possèdent des mémoires de travail capables de contenir une grande quantité de données.
Les clients entreprises représentent désormais 80 % des revenus d’Anthropic. Les modèles peuvent naviguer dans les applications Web, remplir des formulaires et traiter des tâches complexes avec une surveillance humaine minimale. Ce sont ces caractéristiques qui rendent Claude si attrayant pour les militaires, mais aussi la source du conflit.
Le point de rupture : raid au Venezuela et pression sur le Pentagone
Les tensions se sont intensifiées après la capture de Nicolas Maduro au Venezuela par les forces d’opérations spéciales américaines en janvier. Les rapports indiquent que les forces ont utilisé Claude via le partenariat d’Anthropic avec Palantir pendant l’opération. Lorsqu’un dirigeant d’Anthropic a interrogé Palantir à propos de cette utilisation, l’alarme a été déclenchée au Pentagone.
Le secrétaire à la Défense Pete Hegseth envisage de rompre les liens avec Anthropic, un haut responsable de l’administration déclarant : « Nous allons nous assurer qu’ils paieront le prix pour nous forcer la main de cette manière. » Le Pentagone exige un accès illimité à l’IA à « toutes fins légales », tandis qu’Anthropic a tracé des lignes rouges contre la surveillance massive des Américains et contre les armes entièrement autonomes.
Le dilemme fondamental : sécurité ou application militaire
Cette impasse soulève des questions fondamentales quant à savoir si une entreprise d’IA engagée en faveur de la sécurité peut opérer dans un contexte militaire. Est-il possible de maintenir des frontières éthiques lorsque les outils les plus puissants sont intégrés dans des réseaux classifiés ? D’autres grands laboratoires d’IA – OpenAI, Google et xAI – ont assoupli les protections pour les systèmes non classifiés du Pentagone, mais Anthropic reste le premier modèle de langage majeur fonctionnant au sein de réseaux classifiés.
La question centrale est de savoir si « la sécurité avant tout » constitue une identité durable une fois que la technologie est intégrée aux opérations militaires. Le débat ne porte pas seulement sur les capacités techniques, mais aussi sur les zones grises juridiques et philosophiques.
Zones grises dans la surveillance et les armes autonomes
Les restrictions d’Anthropic sur la surveillance de masse sont remises en question par la nature évolutive de l’analyse des données basée sur l’IA. Les cadres juridiques conçus pour l’examen humain ont du mal à suivre le rythme de l’analyse à l’échelle machine. La frontière entre la collecte de données autorisée et la surveillance de masse devient floue lorsque les systèmes d’IA peuvent cartographier les réseaux, repérer les modèles et signaler les personnes d’intérêt.
Comme l’a souligné un responsable, le Pentagone affirme qu’il existe une « zone grise considérable » autour des restrictions d’Anthropic. Les experts ne sont pas d’accord. Peter Asaro, co-fondateur du Comité international pour le contrôle des armements robotisés, suggère que cette « zone grise » pourrait simplement être un prétexte pour utiliser l’IA à des fins de surveillance et d’armes autonomes.
La définition des armes autonomes est également étroite : des systèmes qui sélectionnent et engagent des cibles sans surveillance humaine. Cependant, le ciblage assisté par l’IA, comme les systèmes Lavender et Gospel de l’armée israélienne, automatise déjà des éléments clés du processus de ciblage.
Le compromis inévitable ?
Plus les modèles d’Anthropic deviennent performants, plus la frontière entre un travail analytique acceptable et une surveillance ou un ciblage interdits est mince. Les équipes d’agents autonomes de l’Opus 4.6 peuvent répartir des tâches complexes, transformant ainsi le renseignement militaire. La capacité de naviguer dans les applications, de remplir des formulaires et de traiter les données avec un minimum de surveillance rend Claude inestimable au sein des réseaux classifiés.
À mesure qu’Anthropic repousse les frontières de l’IA autonome, la demande militaire pour ces outils ne fera qu’augmenter. Emelia Probasco, du Centre pour la sécurité et les technologies émergentes de Georgetown, suggère qu’il existe une fausse dichotomie entre la sûreté et la sécurité nationale, en demandant : « Et si nous avions la sûreté et la sécurité nationale ?
L’impasse avec le Pentagone met à l’épreuve l’engagement d’Anthropic en faveur de la sécurité et oblige à se demander si les lignes rouges éthiques peuvent vraiment tenir lorsque l’IA est intégrée dans les opérations militaires les plus puissantes et les plus secrètes.



















