Perusahaan kecerdasan buatan terkemuka, Anthropic dan OpenAI, secara aktif merekrut spesialis senjata dan bahan peledak untuk memitigasi potensi penyalahgunaan model AI canggih mereka. Langkah ini menggarisbawahi semakin besarnya pengakuan dalam industri bahwa akses yang tidak terkendali terhadap AI yang kuat dapat menimbulkan konsekuensi yang menghancurkan.
Pencarian Keahlian Khusus
Kedua perusahaan telah membuka lowongan pekerjaan yang mencari individu dengan pengetahuan mendalam tentang senjata kimia, bahan peledak, dan alat penyebaran radiologi (bom kotor). Anthropic secara khusus mencari pakar kebijakan untuk merancang dan memantau “pagar pembatas” untuk sistem AI-nya, mencegahnya dieksploitasi untuk tujuan jahat. Peran tersebut memerlukan setidaknya lima tahun pengalaman dalam pertahanan senjata dan kemampuan untuk merespons dengan cepat terhadap meningkatnya ancaman yang terdeteksi berdasarkan perintah pengguna.
OpenAI, sementara itu, sedang membangun tim “Kesiapsiagaan” dengan para peneliti yang berfokus pada mengidentifikasi dan memperkirakan “risiko terdepan” yang terkait dengan model AI paling kuatnya. Posisi kuncinya, “Pemodel Ancaman”, akan memusatkan penilaian risiko di seluruh divisi teknis, tata kelola, dan kebijakan.
Meningkatnya Ketegangan dengan Instansi Pemerintah
Perekrutan ini menyusul bentrokan baru-baru ini antara Anthropic dan Departemen Perang AS (DOW). DOW menuntut akses tidak terbatas ke chatbot Claude milik Anthropic, yang ditolak oleh Anthropic karena kekhawatiran akan potensi pengawasan massal dan integrasi ke dalam sistem senjata otonom. CEO Dario Amodei menyuarakan keberatan keras terhadap kontrak yang akan mengerahkan Claude untuk tujuan tersebut.
Sebaliknya, OpenAI telah mendapatkan kesepakatan dengan DOW untuk menyebarkan AI-nya ke lingkungan rahasia, meskipun dengan “garis merah” yang ditetapkan sendiri terhadap pengawasan massal dan persenjataan otonom. Perbedaan ini menyoroti meningkatnya ketegangan antara perusahaan AI yang berupaya mengendalikan penggunaan teknologi mereka dan pemerintah yang ingin memanfaatkannya demi keamanan nasional.
Implikasi yang Lebih Luas
Perekrutan ahli senjata merupakan pengakuan nyata atas bahaya nyata yang ditimbulkan oleh pengembangan AI yang tidak terkendali. Fakta bahwa perusahaan secara proaktif bersiap menghadapi skenario terburuk menunjukkan bahwa mereka yakin bahwa risiko penyalahgunaan dapat terjadi dan dapat segera terjadi. Hal ini menimbulkan pertanyaan mendasar mengenai tata kelola AI, keseimbangan antara inovasi dan keamanan, dan peran perusahaan swasta dalam mengelola ancaman yang ada.
Respons industri terhadap tantangan-tantangan ini akan membentuk masa depan AI, menentukan apakah AI akan menjadi alat untuk mencapai kemajuan atau menjadi katalisator bencana.
