Anthropic’s AI-impasse met het Pentagon: een botsing van ethiek en macht

0

Anthropic, een van de snelst groeiende technologiebedrijven van dit moment, bevindt zich in een conflict met het Pentagon over de AI-veiligheidsbeperkingen die op het spel staan. Het conflict concentreert zich op de vraag of het bedrijf zal toestaan ​​dat zijn geavanceerde modellen, waaronder de onlangs uitgebrachte Claude Opus 4.6 en Sonnet 4.6, voor militaire doeleinden worden gebruikt zonder de verklaarde ethische lijnen in gevaar te brengen. Het Pentagon heeft laten weten dat het Anthropic mogelijk aanwijst als een ‘toeleveringsketenrisico’ – een aanduiding die doorgaans voorbehouden is aan buitenlandse tegenstanders – als het bedrijf niet toegeeft.

De opkomst van Anthropic en zijn geavanceerde AI

Anthropic, opgericht door voormalige leidinggevenden van OpenAI in 2021, groeide snel op naar een waardering van $380 miljard na het afsluiten van een financieringsronde van $30 miljard. De nieuwste modellen van het bedrijf, Opus 4.6 en Sonnet 4.6, vertegenwoordigen aanzienlijke sprongen in AI-mogelijkheden. Opus 4.6 kan nu teams van autonome agenten coördineren, waardoor meerdere AI’s parallel kunnen werken. Sonnet 4.6 komt bijna overeen met de codeer- en computervaardigheden van Opus, maar is goedkoper, en beide modellen beschikken over werkgeheugens die een enorme hoeveelheid gegevens kunnen bevatten.

Enterprise-klanten vertegenwoordigen nu 80% van de omzet van Anthropic. The models can navigate web applications, fill out forms, and process complex tasks with minimal human oversight. Deze kenmerken maken Claude zo aantrekkelijk voor het leger, maar ook de bron van het conflict.

Het breekpunt: de aanval op Venezuela en de druk op het Pentagon

De spanningen escaleerden nadat Amerikaanse speciale operatietroepen Nicolás Maduro in januari in Venezuela hadden gevangengenomen. Reports indicate that forces used Claude via Anthropic’s partnership with Palantir during the operation. Toen een antropische directeur Palantir over dit gebruik ondervroeg, werd er alarm geslagen bij het Pentagon.

Minister van Defensie Pete Hegseth overweegt de banden met Anthropic te verbreken, waarbij een hoge regeringsfunctionaris zegt: “We gaan ervoor zorgen dat ze een prijs betalen voor het op deze manier forceren van onze hand.” Het Pentagon eist onbeperkte toegang tot AI voor ‘alle wettige doeleinden’, terwijl Anthropic rode lijnen heeft getrokken tegen massale surveillance van Amerikanen en volledig autonome wapens.

Het kerndilemma: veiligheid versus militaire toepassing

De impasse roept fundamentele vragen op over de vraag of een AI-bedrijf dat zich inzet voor veiligheid binnen een militaire context kan opereren. Is het mogelijk om ethische grenzen te handhaven wanneer de krachtigste instrumenten worden geïntegreerd in geheime netwerken? Andere grote AI-laboratoria – OpenAI, Google en xAI – hebben de waarborgen voor niet-geclassificeerde Pentagon-systemen versoepeld, maar Anthropic blijft het eerste grote taalmodel dat binnen geheime netwerken opereert.

De kernvraag is of ‘veiligheid eerst’ een duurzame identiteit is zodra technologie is ingebed in militaire operaties. Het debat gaat niet alleen over technische mogelijkheden, maar ook over juridische en filosofische grijze gebieden.

Grijze gebieden op het gebied van surveillance en autonome wapens

De beperkingen van Anthropic op het gebied van massasurveillance worden uitgedaagd door de evoluerende aard van AI-gestuurde data-analyse. Juridische kaders die zijn ontworpen voor menselijke beoordeling, hebben moeite om gelijke tred te houden met analyses op machineschaal. De grens tussen toegestane gegevensverzameling en massale surveillance vervaagt wanneer AI-systemen netwerken in kaart kunnen brengen, patronen kunnen ontdekken en personen van belang kunnen markeren.

Zoals een functionaris opmerkte, beweert het Pentagon dat er een “aanzienlijk grijs gebied” bestaat rond de beperkingen van Anthropic. Deskundigen zijn het daar niet mee eens. Peter Asaro, medeoprichter van het International Committee for Robot Arms Control, suggereert dat dit ‘grijze gebied’ eenvoudigweg een voorwendsel zou kunnen zijn voor het gebruik van AI voor surveillance en autonome wapens.

Ook de definitie van autonome wapens is smal: systemen die doelen selecteren en aanvallen zonder menselijk toezicht. AI-ondersteunde targeting, zoals de Lavender- en Gospel-systemen van het Israëlische leger, automatiseert echter al belangrijke elementen van het targetingproces.

De onvermijdelijke afweging?

Hoe capabeler de modellen van Anthropic worden, hoe dunner de grens tussen acceptabel analytisch werk en verboden surveillance of targeting. De autonome agententeams van Opus 4.6 kunnen complexe taken opsplitsen, waardoor de militaire inlichtingendienst wordt getransformeerd. De mogelijkheid om door applicaties te navigeren, formulieren in te vullen en gegevens te verwerken met minimaal toezicht, maakt Claude van onschatbare waarde binnen geheime netwerken.

Terwijl Anthropic de grenzen van autonome AI verlegt, zal de vraag van het leger naar deze tools alleen maar toenemen. Emelia Probasco van het Centre for Security and Emerging Technology in Georgetown suggereert dat er een valse binaire verhouding bestaat tussen veiligheid en nationale veiligheid, en vraagt ​​zich af: “Hoe zit het met veiligheid en nationale veiligheid?”

De impasse met het Pentagon stelt de inzet van Anthropic op het gebied van veiligheid op de proef en dwingt tot een afweging of ethische rode lijnen echt stand kunnen houden als AI wordt geïntegreerd in de krachtigste en geheimste militaire operaties.

попередня статтяEuropean Solar Observatory Sonde verliest oriëntatie, missiestatus onzeker
наступна статтяDeze week viert In Space 200 afleveringen met Listener Special