RADARBONANG.ID – Konflik antara Anthropic dan United States Department of Defense (Pentagon) bukan sekadar sengketa hukum biasa.
Di baliknya, tersimpan perubahan besar—bahkan bisa dibilang drastis—dalam cara Silicon Valley memandang perang di era kecerdasan buatan.
Jika dulu perusahaan teknologi cenderung menjaga jarak dari proyek militer, kini batas itu mulai kabur. Bahkan, dalam beberapa kasus, nyaris hilang.
Awal Konflik: Status “Risiko Rantai Pasok”
Sengketa memuncak ketika Pentagon memasukkan Anthropic ke dalam daftar “risiko rantai pasok”—status yang secara efektif melarang kontraktor militer menggunakan teknologi mereka.
Bagi Anthropic, langkah itu bukan sekadar kebijakan administratif, melainkan serangan langsung terhadap prinsip perusahaan.
Dalam dokumen gugatan di California, mereka menegaskan: "Tindakan ini belum pernah terjadi sebelumnya dan melanggar hukum.
Konstitusi tidak mengizinkan pemerintah menggunakan kekuasaannya yang sangat besar untuk menghukum perusahaan atas pandangan yang dilindungi hukum."
Pernyataan itu merujuk pada sikap Anthropic yang membatasi penggunaan model AI mereka, Claude—khususnya untuk pengawasan massal dan pengembangan senjata otonom mematikan.
Bukan Menolak Militer, Tapi Menarik Garis
Menariknya, Anthropic tidak sepenuhnya anti-militer.
CEO mereka, Dario Amodei, justru mengakui adanya kesamaan visi dengan sektor pertahanan.
"Anthropic memiliki jauh lebih banyak kesamaan dengan Departemen Perang daripada perbedaan," tulisnya.
"Kami pada dasarnya setuju dengan hampir semua skenario penggunaan AI sekitar 98 atau 99 persen kecuali dua hal, yakni pengawasan massal domestik dan senjata otonom tanpa kendali manusia,’’ tambah Dario.
Di titik ini, konflik menjadi jelas: bukan soal bekerja sama atau tidak, tapi soal di mana garis etika ditarik.
Flashback: Saat Google Menolak Perang
Untuk memahami betapa besarnya perubahan ini, kita perlu mundur ke tahun 2018.
Saat itu, lebih dari 3.000 karyawan Google menandatangani surat penolakan terhadap keterlibatan perusahaan dalam Project Maven—program Pentagon berbasis AI untuk analisis drone.
Isi pesannya tegas: "Kami percaya bahwa Google tidak seharusnya berada dalam bisnis perang."
Tekanan internal itu berhasil. Google mundur dan bahkan menetapkan kebijakan ketat terkait penggunaan AI untuk tujuan militer.
Kini Berbalik Arah: AI Masuk Arena Pertahanan
Namun lanskap itu kini berubah. Google disebut telah melonggarkan sebagian kebijakannya. Bahkan, sistem AI mereka, Gemini, mulai diarahkan untuk mendukung pengembangan agen AI dalam proyek militer non-rahasia.
Perubahan sikap juga terjadi pada OpenAI, yang sebelumnya menutup pintu bagi militer, kini justru membuka kerja sama dengan Pentagon.
Tak tanggung-tanggung, bersama Anthropic, Google, dan perusahaan milik Elon Musk, xAI, mereka menandatangani kontrak hingga 200 juta dolar AS untuk integrasi AI dalam sistem militer.
Ini bukan lagi eksperimen. Ini sudah masuk fase industrialisasi.
Idealisme Tumbang oleh Realitas?
Ada satu benang merah yang sulit diabaikan: perubahan ini tidak terjadi dalam ruang hampa.
Ketika AI menjadi teknologi kunci dalam geopolitik global, perusahaan teknologi menghadapi dilema klasik—idealism versus relevansi.
Di satu sisi, ada tekanan etika: pengawasan massal, senjata otonom, potensi perang tanpa manusia.
Di sisi lain, ada realitas: kontrak besar, pengaruh global, dan posisi strategis di tengah rivalitas antarnegara. Hasilnya? Kompromi.
Bukan lagi “tidak mau terlibat”, tapi “terlibat dengan syarat”.
AI, Perang, dan Masa Depan yang Belum Selesai
Kasus Anthropic vs Pentagon menunjukkan satu hal: perlombaan AI bukan sekadar soal teknologi, tapi soal kekuasaan.
Siapa mengendalikan AI, dia mengendalikan masa depan—baik di ekonomi, politik, maupun militer.
Namun satu pertanyaan besar masih menggantung: Seberapa jauh manusia rela menyerahkan keputusan perang kepada mesin?
Jawabannya belum ada. Tapi satu hal pasti—Silicon Valley sudah tidak lagi berdiri di luar medan. Mereka kini berada tepat di tengahnya. (*)
Editor : Muhammad Azlan Syah