Противостояние Anthropic и Пентагона: Столкновение Этики и Власти

0

Anthropic, одна из самых быстрорастущих технологических компаний на сегодняшний день, оказалась в эпицентре острого конфликта с Пентагоном из-за своих ограничений в области безопасности ИИ. Спор касается того, позволит ли компания использовать свои передовые модели, включая недавно выпущенные Claude Opus 4.6 и Sonnet 4.6, в военных целях, не нарушая заявленных этических принципов. Пентагон дал понять, что может отнести Anthropic к категории “риска для цепочки поставок” – обозначение, обычно резервируемое для иностранных противников – если компания не уступит.

Взлёт Anthropic и Её Передовых ИИ

Anthropic, основанная бывшими руководителями OpenAI в 2021 году, быстро достигла оценки в 380 миллиардов долларов после закрытия раунда финансирования в 30 миллиардов долларов. Последние модели компании, Opus 4.6 и Sonnet 4.6, представляют собой значительный скачок в возможностях ИИ. Opus 4.6 теперь может координировать команды автономных агентов, позволяя нескольким ИИ работать параллельно. Sonnet 4.6 почти соответствует Opus по навыкам кодирования и работы с компьютерами, будучи при этом более дешёвой, и обе модели обладают рабочей памятью, способной хранить огромный объём данных.

80% доходов Anthropic теперь поступают от корпоративных клиентов. Модели могут перемещаться по веб-приложениям, заполнять формы и обрабатывать сложные задачи с минимальным участием человека. Именно эти функции делают Claude столь привлекательным для военных, но также и являются источником конфликта.

Переломный Момент: Операция в Венесуэле и Давление Пентагона

Напряжённость обострилась после того, как спецназ США захватил Николаса Мадуро в Венесуэле в январе. По сообщениям, силы использовали Claude через партнёрство Anthropic с Palantir во время операции. Когда представитель Anthropic запросил у Palantir информацию об этом использовании, в Пентагоне поднялась тревога.

Министр обороны Пит Хегсет рассматривает возможность разрыва связей с Anthropic, а высокопоставленный представитель администрации заявил: “Мы заставим их заплатить за то, что они поставили нас в такое положение”. Пентагон требует неограниченного доступа к ИИ для “всех законных целей”, в то время как Anthropic установила чёткие границы против массовой слежки за американцами и полностью автономного оружия.

Основная Дилемма: Безопасность против Военного Применения

Противостояние поднимает фундаментальные вопросы о том, может ли компания ИИ, приверженная безопасности, работать в военном контексте. Возможно ли поддерживать этические границы, когда самые мощные инструменты интегрируются в секретные сети? Другие крупные ИИ-лаборатории – OpenAI, Google и xAI – ослабили меры безопасности для неклассифицированных систем Пентагона, но Anthropic остаётся первой крупной языковой моделью, работающей внутри классифицированных сетей.

Основной вопрос заключается в том, является ли “безопасность прежде всего” устойчивой идентичностью, когда технология внедряется в военные операции. Споры касаются не только технических возможностей, но и юридических и философских серых зон.

Серые Зоны в Слежке и Автономном Оружии

Ограничения Anthropic на массовую слежку оспариваются развивающимся характером ИИ-управляемого анализа данных. Правовые рамки, предназначенные для проверки человеком, не успевают за машинным анализом. Граница между допустимым сбором данных и массовой слежкой стирается, когда ИИ-системы могут составлять карты сетей, выявлять закономерности и помечать заинтересованных лиц.

Как отметил один из чиновников, Пентагон утверждает, что существует “значительная серая зона” в отношении ограничений Anthropic. Эксперты не согласны. Питер Асаро, соучредитель Международного комитета по контролю над робототехникой, предполагает, что эта “серая зона” может быть просто предлогом для использования ИИ для слежки и автономного оружия.

Определение автономного оружия также узкое: системы, которые выбирают и поражают цели без участия человека. Однако ИИ-поддержка целеуказания, как израильские системы Lavender и Gospel, уже автоматизирует ключевые элементы процесса наведения.

Неизбежный Компромисс?

Чем более мощными становятся модели Anthropic, тем тоньше становится грань между приемлемой аналитической работой и запрещённой слежкой или наведением. Команды автономных агентов Opus 4.6 могут разбивать сложные задачи, преобразуя военную разведку. Способность перемещаться по приложениям, заполнять формы и обрабатывать данные с минимальным надзором делает Claude незаменимым внутри секретных сетей.

По мере того, как Anthropic расширяет границы автономного ИИ, военный спрос на эти инструменты будет только расти. Эмилия Пробаско из Центра безопасности и новых технологий Джорджтаунского университета предполагает, что ложного выбора между безопасностью и национальной безопасностью не существует, спрашивая: “А что, если у нас будет и безопасность, и национальная безопасность?”

Противостояние с Пентагоном проверяет приверженность Anthropic безопасности и заставляет переосмыслить, могут ли этические границы действительно выстоять, когда ИИ интегрируется в самые мощные и секретные военные операции.

попередня статтяEvropská solární observatoř ztratila orientaci, stav mise nejistý
наступна статтяThis Week in Space: Oslava 200. epizody se speciální epizodou pro posluchače