Anthropics KI-Konfrontation mit dem Pentagon: Ein Kampf von Ethik und Macht

0

Anthropic, eines der derzeit am schnellsten wachsenden Technologieunternehmen, befindet sich in einem heiklen Streit mit dem Pentagon über seine KI-Sicherheitsbeschränkungen. Im Mittelpunkt des Konflikts steht die Frage, ob das Unternehmen die Verwendung seiner fortschrittlichen Modelle, einschließlich der neu erschienenen Modelle Claude Opus 4.6 und Sonnet 4.6, für militärische Zwecke zulässt, ohne seine erklärten ethischen Grundsätze zu gefährden. Das Pentagon hat signalisiert, dass es Anthropic möglicherweise als „Lieferkettenrisiko“ bezeichnen könnte – eine Bezeichnung, die normalerweise ausländischen Gegnern vorbehalten ist –, wenn das Unternehmen nicht nachgibt.

Der Aufstieg von Anthropic und seiner fortschrittlichen KI

Anthropic wurde 2021 von ehemaligen OpenAI-Führungskräften gegründet und erreichte nach dem Abschluss einer 30-Milliarden-Dollar-Finanzierungsrunde schnell einen Wert von 380 Milliarden US-Dollar. Die neuesten Modelle des Unternehmens, Opus 4.6 und Sonnet 4.6, stellen bedeutende Fortschritte bei den KI-Fähigkeiten dar. Opus 4.6 kann jetzt Teams autonomer Agenten koordinieren, sodass mehrere KIs parallel arbeiten können. Sonnet 4.6 erreicht nahezu die Programmier- und Computerkenntnisse von Opus, ist aber günstiger, und beide Modelle verfügen über einen Arbeitsspeicher, der große Datenmengen speichern kann.

Unternehmenskunden machen mittlerweile 80 % des Umsatzes von Anthropic aus. Die Modelle können mit minimaler menschlicher Aufsicht durch Webanwendungen navigieren, Formulare ausfüllen und komplexe Aufgaben verarbeiten. Diese Eigenschaften machen Claude für das Militär so attraktiv, sind aber auch die Quelle des Konflikts.

Der Bruchpunkt: Überfall auf Venezuela und Druck des Pentagons

Die Spannungen eskalierten, nachdem US-Spezialeinheiten im Januar Nicolás Maduro in Venezuela festgenommen hatten. Berichten zufolge nutzten die Streitkräfte Claude im Rahmen der Partnerschaft von Anthropic mit Palantir während der Operation. Als ein Anthropic-Manager Palantir zu dieser Verwendung befragte, wurde im Pentagon Alarm ausgelöst.

Verteidigungsminister Pete Hegseth erwägt den Abbruch der Beziehungen zu Anthropic, wobei ein hochrangiger Regierungsbeamter erklärte: „Wir werden dafür sorgen, dass sie einen Preis dafür zahlen, dass sie uns so zum Handeln zwingen.“ Das Pentagon fordert uneingeschränkten Zugang zu KI für „alle rechtmäßigen Zwecke“, während Anthropic rote Linien gegen die Massenüberwachung von Amerikanern und völlig autonome Waffen gezogen hat.

Das Kerndilemma: Sicherheit vs. militärische Anwendung

Die Pattsituation wirft grundlegende Fragen darüber auf, ob ein KI-Unternehmen, das sich der Sicherheit verschrieben hat, in einem militärischen Kontext agieren kann. Ist es möglich, ethische Grenzen aufrechtzuerhalten, wenn die mächtigsten Werkzeuge in geheime Netzwerke integriert werden? Andere große KI-Labore – OpenAI, Google und xAI – haben die Sicherheitsvorkehrungen für nicht klassifizierte Pentagon-Systeme gelockert, aber Anthropic bleibt das erste große Sprachmodell, das in geheimen Netzwerken betrieben wird.

Die Kernfrage ist, ob „Sicherheit geht vor“ eine nachhaltige Identität ist, sobald Technologie in militärische Operationen eingebettet ist. In der Debatte geht es nicht nur um technische Möglichkeiten, sondern auch um rechtliche und philosophische Grauzonen.

Grauzonen bei Überwachung und autonomen Waffen

Die Beschränkungen von Anthropic bei der Massenüberwachung werden durch die Weiterentwicklung der KI-gesteuerten Datenanalyse in Frage gestellt. Rechtsrahmen, die für die menschliche Überprüfung konzipiert sind, haben Schwierigkeiten, mit der maschinellen Analyse Schritt zu halten. Die Grenze zwischen zulässiger Datenerfassung und Massenüberwachung verschwimmt, wenn KI-Systeme Netzwerke kartieren, Muster erkennen und interessante Personen kennzeichnen können.

Wie ein Beamter feststellte, argumentiert das Pentagon, dass es eine „erhebliche Grauzone“ um die Beschränkungen von Anthropic gebe. Experten sind anderer Meinung. Peter Asaro, Mitbegründer des International Committee for Robot Arms Control, vermutet, dass diese „Grauzone“ lediglich ein Vorwand für den Einsatz von KI zur Überwachung und autonomen Waffen sein könnte.

Auch die Definition autonomer Waffen ist eng: Systeme, die ohne menschliche Aufsicht Ziele auswählen und bekämpfen. Allerdings automatisiert die KI-gestützte Zielerfassung, wie die Lavender- und Gospel-Systeme des israelischen Militärs, bereits wichtige Elemente des Zielvorgangs.

Der unvermeidliche Kompromiss?

Je leistungsfähiger die Modelle von Anthropic werden, desto dünner wird die Grenze zwischen akzeptabler analytischer Arbeit und verbotener Überwachung oder Zielerfassung. Die autonomen Agententeams von Opus 4.6 können komplexe Aufgaben aufteilen und so den militärischen Geheimdienst transformieren. Die Fähigkeit, mit minimaler Aufsicht durch Anträge zu navigieren, Formulare auszufüllen und Daten zu verarbeiten, macht Claude in geheimen Netzwerken von unschätzbarem Wert.

Während Anthropic die Grenzen der autonomen KI vorantreibt, wird die Nachfrage des Militärs nach diesen Werkzeugen nur noch zunehmen. Emelia Probasco vom Center for Security and Emerging Technology in Georgetown weist darauf hin, dass zwischen Sicherheit und nationaler Sicherheit eine falsche Binarität besteht, und fragt: „Wie wäre es, wenn wir Sicherheit und nationale Sicherheit haben?“

Die Pattsituation mit dem Pentagon stellt Anthropics Engagement für Sicherheit auf die Probe und zwingt zu einer Abrechnung darüber, ob ethische rote Linien wirklich Bestand haben können, wenn KI in die mächtigsten und geheimsten Militäreinsätze integriert wird.

попередня статтяSonde des Europäischen Sonnenobservatoriums verliert Orientierung, Missionsstatus ungewiss
наступна статтяThis Week In Space feiert 200 Episoden mit einem Listener-Special