El enfrentamiento de la IA de Anthropic con el Pentágono: un choque de ética y poder

0

Anthropic, una de las empresas tecnológicas de más rápido crecimiento en la actualidad, se encuentra en una disputa de alto riesgo con el Pentágono sobre sus restricciones de seguridad de la IA. El conflicto se centra en si la compañía permitirá que sus modelos avanzados, incluidos los recientemente lanzados Claude Opus 4.6 y Sonnet 4.6, se utilicen con fines militares sin comprometer sus líneas éticas declaradas. El Pentágono ha señalado que puede designar a Anthropic como un “riesgo para la cadena de suministro” (una designación generalmente reservada para adversarios extranjeros) si la empresa no cede.

El auge de Anthropic y su IA avanzada

Anthropic, fundada por ex ejecutivos de OpenAI en 2021, escaló rápidamente a una valoración de 380 mil millones de dólares después de cerrar una ronda de financiación de 30 mil millones de dólares. Los últimos modelos de la compañía, Opus 4.6 y Sonnet 4.6, representan avances significativos en las capacidades de IA. Opus 4.6 ahora puede coordinar equipos de agentes autónomos, permitiendo que múltiples IA trabajen en paralelo. Sonnet 4.6 casi iguala las habilidades informáticas y de codificación de Opus, aunque es más barato, y ambos modelos poseen memorias de trabajo capaces de almacenar una gran cantidad de datos.

Los clientes empresariales representan ahora el 80% de los ingresos de Anthropic. Los modelos pueden navegar por aplicaciones web, completar formularios y procesar tareas complejas con una mínima supervisión humana. Estas características son las que hacen que Claude sea tan atractivo para los militares, pero también la fuente del conflicto.

El punto de quiebre: incursión en Venezuela y presión del Pentágono

Las tensiones aumentaron después de que las fuerzas de operaciones especiales estadounidenses capturaran a Nicolás Maduro en Venezuela en enero. Los informes indican que las fuerzas utilizaron a Claude a través de la asociación de Anthropic con Palantir durante la operación. Cuando un ejecutivo de Anthropic cuestionó a Palantir sobre este uso, se dispararon las alarmas en el Pentágono.

El secretario de Defensa, Pete Hegseth, está considerando romper los lazos con Anthropic, y un alto funcionario de la administración afirmó: “Vamos a asegurarnos de que paguen un precio por forzarnos a actuar de esta manera”. El Pentágono exige acceso irrestricto a la IA para “todos los fines legales”, mientras que Anthropic ha trazado líneas rojas contra la vigilancia masiva de los estadounidenses y las armas totalmente autónomas.

El dilema central: seguridad versus aplicación militar

El enfrentamiento plantea cuestiones fundamentales sobre si una empresa de inteligencia artificial comprometida con la seguridad puede operar en un contexto militar. ¿Es posible mantener límites éticos cuando las herramientas más poderosas se integran en redes clasificadas? Otros laboratorios importantes de IA (OpenAI, Google y xAI) han relajado las salvaguardias para los sistemas no clasificados del Pentágono, pero Anthropic sigue siendo el primer modelo de lenguaje importante que opera dentro de redes clasificadas.

La cuestión central es si “la seguridad primero” es una identidad sostenible una vez que la tecnología esté integrada en las operaciones militares. El debate no se trata sólo de capacidades técnicas sino también de zonas grises jurídicas y filosóficas.

Áreas grises en vigilancia y armas autónomas

Las restricciones de Anthropic a la vigilancia masiva se ven desafiadas por la naturaleza cambiante del análisis de datos impulsado por IA. Los marcos legales diseñados para la revisión humana luchan por seguir el ritmo del análisis a escala de máquina. La línea entre la recopilación de datos permitida y la vigilancia masiva se vuelve borrosa cuando los sistemas de inteligencia artificial pueden mapear redes, detectar patrones y señalar personas de interés.

Como señaló un funcionario, el Pentágono sostiene que existe una “zona gris considerable” en torno a las restricciones de Anthropic. Los expertos no están de acuerdo. Peter Asaro, cofundador del Comité Internacional para el Control de Armas Robóticas, sugiere que esta “zona gris” podría ser simplemente un pretexto para utilizar la IA para vigilancia y armas autónomas.

La definición de armas autónomas también es estrecha: sistemas que seleccionan y atacan objetivos sin supervisión humana. Sin embargo, la selección de objetivos asistida por IA, como los sistemas Lavender y Gospel del ejército israelí, ya automatiza elementos clave del proceso de selección de objetivos.

¿La compensación inevitable?

Cuanto más capaces se vuelven los modelos de Anthropic, más delgada es la línea entre el trabajo analítico aceptable y la vigilancia o la focalización prohibidas. Los equipos de agentes autónomos de Opus 4.6 pueden dividir tareas complejas, transformando la inteligencia militar. La capacidad de navegar por aplicaciones, completar formularios y procesar datos con una supervisión mínima hace que Claude sea invaluable dentro de las redes clasificadas.

As Anthropic pushes the frontier of autonomous AI, the military’s demand for those tools will only grow. Emelia Probasco, del Centro de Seguridad y Tecnología Emergente de Georgetown, sugiere que existe un binario falso entre seguridad y seguridad nacional y pregunta: “¿Qué tal si tenemos seguridad y seguridad nacional?”

El enfrentamiento con el Pentágono pone a prueba el compromiso de Anthropic con la seguridad y obliga a evaluar si las líneas rojas éticas realmente pueden mantenerse cuando la IA se integra en las operaciones militares más poderosas y secretas.