Anthropic, salah satu perusahaan teknologi dengan pertumbuhan tercepat saat ini, terlibat perselisihan besar dengan Pentagon mengenai pembatasan keamanan AI yang mereka lakukan. Konflik berpusat pada apakah perusahaan akan mengizinkan model-model canggihnya, termasuk Claude Opus 4.6 dan Sonnet 4.6 yang baru dirilis, untuk digunakan untuk tujuan militer tanpa mengorbankan garis etika yang dinyatakan. Pentagon telah memberi isyarat bahwa mereka mungkin akan menyebut Anthropic sebagai “risiko rantai pasokan” – sebuah sebutan yang biasanya diperuntukkan bagi musuh asing – jika perusahaan tersebut tidak menyerah.
Bangkitnya Antropik dan AI Canggihnya
Anthropic, yang didirikan oleh mantan eksekutif OpenAI pada tahun 2021, dengan cepat mencapai penilaian $380 miliar setelah menutup putaran pendanaan $30 miliar. Model terbaru perusahaan, Opus 4.6 dan Sonnet 4.6, mewakili lompatan signifikan dalam kemampuan AI. Opus 4.6 kini dapat mengoordinasikan tim agen otonom, sehingga memungkinkan beberapa AI bekerja secara paralel. Sonnet 4.6 hampir menyamai kemampuan pengkodean dan komputer Opus namun lebih murah, dan kedua model memiliki memori kerja yang mampu menampung data dalam jumlah besar.
Klien perusahaan kini menyumbang 80% pendapatan Anthropic. Model tersebut dapat menavigasi aplikasi web, mengisi formulir, dan memproses tugas kompleks dengan pengawasan manusia yang minimal. Fitur-fitur inilah yang membuat Claude begitu menarik di kalangan militer, tetapi juga menjadi sumber konflik.
Titik Puncaknya: Serangan Venezuela dan Tekanan Pentagon
Ketegangan meningkat setelah pasukan operasi khusus AS menangkap Nicolás Maduro di Venezuela pada bulan Januari. Laporan menunjukkan bahwa pasukan menggunakan Claude melalui kemitraan Anthropic dengan Palantir selama operasi. Ketika seorang eksekutif Anthropic menanyai Palantir tentang penggunaan ini, peringatan muncul di Pentagon.
Menteri Pertahanan Pete Hegseth sedang mempertimbangkan untuk memutuskan hubungan dengan Anthropic, dan seorang pejabat senior pemerintahan menyatakan, “Kami akan memastikan mereka membayar harga karena memaksa kami seperti ini.” Pentagon menuntut akses tidak terbatas terhadap AI untuk “semua tujuan yang sah,” sementara Anthropic telah menarik garis merah terhadap pengawasan massal terhadap orang Amerika dan senjata yang sepenuhnya otonom.
Dilema Inti: Penerapan Keamanan vs. Militer
Kebuntuan ini menimbulkan pertanyaan mendasar tentang apakah perusahaan AI yang berkomitmen terhadap keselamatan dapat beroperasi dalam konteks militer. Apakah mungkin untuk mempertahankan batasan etika ketika alat yang paling canggih diintegrasikan ke dalam jaringan rahasia? Laboratorium AI besar lainnya – OpenAI, Google, dan xAI – telah melonggarkan perlindungan untuk sistem Pentagon yang tidak terklasifikasi, namun Anthropic tetap menjadi model bahasa besar pertama yang beroperasi di dalam jaringan rahasia.
Persoalan intinya adalah apakah “keselamatan pertama” merupakan identitas berkelanjutan setelah teknologi diterapkan dalam operasi militer. Perdebatan yang terjadi tidak hanya mengenai kemampuan teknis namun juga mengenai wilayah abu-abu secara hukum dan filosofis.
Area Abu-abu dalam Pengawasan dan Senjata Otonom
Pembatasan Anthropic terhadap pengawasan massal ditantang oleh sifat analisis data berbasis AI yang terus berkembang. Kerangka hukum yang dirancang untuk tinjauan manusia kesulitan mengimbangi analisis skala mesin. Batas antara pengumpulan data yang diperbolehkan dan pengawasan massal menjadi kabur ketika sistem AI dapat memetakan jaringan, menemukan pola, dan menandai orang-orang yang berkepentingan.
Seperti yang dicatat oleh seorang pejabat, Pentagon berargumentasi bahwa terdapat “area abu-abu” di sekitar pembatasan Anthropic. Para ahli tidak setuju. Peter Asaro, salah satu pendiri Komite Internasional untuk Pengendalian Senjata Robot, berpendapat bahwa “wilayah abu-abu” ini bisa saja menjadi alasan untuk menggunakan AI untuk pengawasan dan senjata otonom.
Definisi senjata otonom juga sempit: sistem yang memilih dan menyerang sasaran tanpa pengawasan manusia. Namun, penargetan yang dibantu AI, seperti sistem Lavender dan Gospel milik militer Israel, sudah mengotomatiskan elemen-elemen kunci dalam proses penargetan.
Pertukaran yang Tak Terelakkan?
Semakin mumpuni model Anthropic, semakin tipis batas antara pekerjaan analitis yang dapat diterima dan pengawasan atau penargetan yang dilarang. Tim agen otonom Opus 4.6 dapat membagi tugas-tugas kompleks, mengubah intelijen militer. Kemampuan untuk menavigasi aplikasi, mengisi formulir, dan memproses data dengan pengawasan minimal menjadikan Claude sangat berharga dalam jaringan rahasia.
Ketika Anthropic mendorong kemajuan AI yang otonom, permintaan militer akan alat-alat tersebut akan semakin meningkat. Emelia Probasco dari Pusat Keamanan dan Teknologi Berkembang Georgetown berpendapat bahwa ada biner yang salah antara keselamatan dan keamanan nasional, dan bertanya, “Bagaimana kalau kita memiliki keselamatan dan keamanan nasional?”
Perselisihan dengan Pentagon menguji komitmen Anthropic terhadap keselamatan dan memaksa perhitungan apakah garis merah etika benar-benar dapat dipertahankan ketika AI diintegrasikan ke dalam operasi militer yang paling kuat dan rahasia.
