Anthropic, una delle aziende tecnologiche in più rapida crescita oggi, si trova in una disputa ad alto rischio con il Pentagono sulle sue restrizioni sulla sicurezza dell’IA. Il conflitto è incentrato sulla possibilità che l’azienda consenta che i suoi modelli avanzati, inclusi i nuovi Claude Opus 4.6 e Sonnet 4.6, vengano utilizzati per scopi militari senza compromettere le linee etiche dichiarate. Il Pentagono ha segnalato che potrebbe designare Anthropic un “rischio nella catena di fornitura” – una designazione solitamente riservata agli avversari stranieri – se la società non cede.
L’ascesa dell’antropologia e della sua intelligenza artificiale avanzata
Anthropic, fondata da ex dirigenti di OpenAI nel 2021, è rapidamente arrivata a una valutazione di 380 miliardi di dollari dopo aver chiuso un round di finanziamento da 30 miliardi di dollari. Gli ultimi modelli dell’azienda, Opus 4.6 e Sonnet 4.6, rappresentano passi da gigante nelle capacità di intelligenza artificiale. Opus 4.6 può ora coordinare squadre di agenti autonomi, consentendo a più IA di lavorare in parallelo. Sonnet 4.6 corrisponde quasi alle capacità di programmazione e informatiche di Opus pur essendo più economico, ed entrambi i modelli possiedono memorie di lavoro in grado di contenere una grande quantità di dati.
I clienti aziendali ora rappresentano l’80% delle entrate di Anthropic. I modelli possono navigare nelle applicazioni web, compilare moduli ed elaborare attività complesse con una supervisione umana minima. Queste caratteristiche sono ciò che rende Claude così attraente per i militari, ma anche la fonte del conflitto.
Il punto di rottura: raid in Venezuela e pressione del Pentagono
Le tensioni sono aumentate dopo che le forze per le operazioni speciali statunitensi hanno catturato Nicolás Maduro in Venezuela a gennaio. I rapporti indicano che le forze hanno utilizzato Claude tramite la partnership di Anthropic con Palantir durante l’operazione. Quando un dirigente di Anthropic interrogò Palantir su questo utilizzo, al Pentagono fu lanciato l’allarme.
Il segretario alla Difesa Pete Hegseth sta valutando la possibilità di recidere i legami con Anthropic, con un alto funzionario dell’amministrazione che afferma: “Ci assicureremo che paghino un prezzo per averci forzato la mano in questo modo”. Il Pentagono richiede l’accesso illimitato all’intelligenza artificiale per “tutti gli scopi legittimi”, mentre Anthropic ha tracciato linee rosse contro la sorveglianza di massa degli americani e le armi completamente autonome.
Il dilemma fondamentale: sicurezza vs. applicazione militare
La situazione di stallo solleva domande fondamentali sulla possibilità che un’azienda di intelligenza artificiale impegnata nella sicurezza possa operare in un contesto militare. È possibile mantenere i confini etici quando gli strumenti più potenti sono integrati nelle reti riservate? Altri importanti laboratori di intelligenza artificiale – OpenAI, Google e xAI – hanno allentato le garanzie per i sistemi non classificati del Pentagono, ma Anthropic rimane il primo grande modello linguistico che opera all’interno di reti classificate.
La questione centrale è se “la sicurezza prima di tutto” sarà un’identità sostenibile una volta che la tecnologia sarà incorporata nelle operazioni militari. Il dibattito non riguarda solo le capacità tecniche ma anche le zone grigie giuridiche e filosofiche.
Aree grigie nella sorveglianza e nelle armi autonome
Le restrizioni di Anthropic sulla sorveglianza di massa sono messe in discussione dalla natura in evoluzione dell’analisi dei dati basata sull’intelligenza artificiale. I quadri giuridici progettati per la revisione umana faticano a tenere il passo con l’analisi su scala meccanica. The line between permissible data collection and mass surveillance becomes blurred when AI systems can map networks, spot patterns, and flag persons of interest.
Come ha notato un funzionario, il Pentagono sostiene che esiste una “considerevole area grigia” attorno alle restrizioni di Anthropic. Gli esperti non sono d’accordo. Peter Asaro, co-fondatore del Comitato internazionale per il controllo delle armi robotiche, suggerisce che questa “zona grigia” potrebbe semplicemente essere un pretesto per utilizzare l’intelligenza artificiale per la sorveglianza e le armi autonome.
Anche la definizione di armi autonome è ristretta: sistemi che selezionano e attaccano obiettivi senza supervisione umana. Tuttavia, il targeting assistito dall’intelligenza artificiale, come i sistemi Lavender e Gospel dell’esercito israeliano, automatizza già gli elementi chiave del processo di targeting.
L’inevitabile compromesso?
Quanto più efficaci diventano i modelli di Anthropic, tanto più sottile è il confine tra lavoro analitico accettabile e sorveglianza o targeting vietati. Le squadre di agenti autonomi dell’Opus 4.6 possono dividersi compiti complessi, trasformando l’intelligence militare. La capacità di navigare tra le applicazioni, compilare moduli ed elaborare dati con una supervisione minima rende Claude prezioso all’interno delle reti riservate.
Man mano che Anthropic spinge la frontiera dell’intelligenza artificiale autonoma, la richiesta da parte dei militari di tali strumenti non potrà che crescere. Emelia Probasco del Center for Security and Emerging Technology di Georgetown suggerisce che esiste un falso binario tra sicurezza e sicurezza nazionale, chiedendo: “Che ne dici di avere sicurezza e sicurezza nazionale?”
La situazione di stallo con il Pentagono mette alla prova l’impegno di Anthropic per la sicurezza e impone una resa dei conti sulla possibilità che le linee rosse etiche possano davvero reggere quando l’intelligenza artificiale viene integrata nelle operazioni militari più potenti e segrete.



















