Perusahaan AI Anthropic Menentang Militer AS Karena Akses Tak Terkekang terhadap Teknologi

11

Pemerintah Amerika Serikat dan Anthropic, sebuah perusahaan kecerdasan buatan terkemuka, terjebak dalam perselisihan mengenai kontrak militer, dan Pentagon menuntut akses tidak terbatas ke sistem AI Anthropic. Perselisihan ini menyoroti meningkatnya ketegangan antara kepentingan keamanan nasional dan batasan etika dalam pengembangan AI tingkat lanjut.

Inti Konflik

CEO Anthropic Dario Amodei secara terbuka menolak permintaan Pentagon untuk akses tak terbatas ke chatbotnya, Claude, pada tanggal 26 Februari. Amodei menyatakan bahwa penerapan AI tertentu “merusak, bukannya mempertahankan, nilai-nilai demokrasi” dan melampaui kemampuan teknologi yang aman dan andal saat ini.

Departemen Pertahanan menetapkan batas waktu kepatuhan pada hari Jumat, mengancam akan mengakhiri kontrak Anthropic senilai $200 juta dan menyebut perusahaan tersebut sebagai “risiko rantai pasokan.” Penunjukan ini secara efektif akan mengecualikan Anthropic dari kontrak-kontrak pemerintah di masa depan, sehingga secara efektif memutus perusahaan tersebut dari pekerjaan pertahanan yang menguntungkan.

Taktik Tekanan yang Meningkat

Pentagon dilaporkan mengancam akan menerapkan Undang-Undang Produksi Pertahanan, yang memberikan wewenang luas kepada Presiden AS untuk memaksa perusahaan swasta memprioritaskan kebutuhan keamanan nasional. Tindakan ini dapat memaksa Anthropic untuk menyerahkan teknologinya, terlepas dari keberatan etisnya.

Situasi ini semakin diperumit oleh fakta bahwa Anthropic telah mengintegrasikan Claude ke dalam perangkat lunak intelijen AS melalui kemitraan dengan Palantir Technologies. Chatbot AI saat ini digunakan di jaringan rahasia pemerintah, termasuk laboratorium nuklir nasional, dan digunakan untuk analisis intelijen oleh Departemen Pertahanan.

Pergeseran Sikap Aman

Konflik ini muncul ketika Anthropic membatalkan janji keselamatan intinya. Didirikan pada tahun 2021 oleh mantan peneliti OpenAI, perusahaan ini sebelumnya berjanji untuk menahan rilis AI sampai langkah-langkah keamanan yang ketat dapat dijamin.

Namun, Anthropic kini menegaskan bahwa menghentikan sementara pembangunan demi memprioritaskan keselamatan akan membuat mereka tertinggal dalam persaingan AI, dan berpotensi kalah bersaing dengan pesaing yang kurang berhati-hati. Kerangka kebijakan baru perusahaan ini memprioritaskan peta jalan keselamatan yang “ambisius namun dapat dicapai” dibandingkan jaminan mutlak, dengan mengakui bahwa beberapa risiko tidak dapat dihindari.

Implikasi terhadap Regulasi AI

Kebuntuan ini menggarisbawahi tantangan yang lebih luas dalam mengatur teknologi AI yang canggih. Pemerintah AS mendorong integrasi AI secara cepat ke dalam aplikasi militer, sementara Anthropic, yang pernah diposisikan sebagai pengembang AI yang bertanggung jawab, kini berkompromi pada standar keselamatan agar tetap kompetitif.

Taktik agresif Pentagon menimbulkan pertanyaan mengenai batas jangkauan pemerintah yang berlebihan di sektor swasta dan potensi pengembangan AI yang tidak terkendali atas nama keamanan nasional. Hasil dari perselisihan ini kemungkinan besar akan menjadi preseden tentang bagaimana perusahaan AI mengatasi konflik serupa di masa depan.

Masalah mendasarnya jelas: pemerintah menginginkan kemampuan AI sekarang, meskipun kemampuan tersebut belum sepenuhnya dipahami atau aman. Hal ini menciptakan ketegangan yang akan semakin meningkat ketika AI menjadi lebih kuat dan terintegrasi ke dalam infrastruktur penting.