Widget HTML #1


Anthropic menolak Pentagon

"Anthropic menolak penggunaan Claude dalam operasi militer seperti di Iran dan penggerebekan di Venezuela"

Berikut ini alasan utama mengapa Anthropic menolak penggunaan model AI-nya (Claude) dalam operasi militer seperti di Iran dan Venezuela, serta menolak tuntutan Pentagon, berdasarkan laporan terbaru:

1. Etika & Tanggung Jawab Penggunaan AI

Anthropic secara terbuka menolak agar Claude digunakan tanpa batasan untuk kegunaan yang berpotensi menyebabkan kekerasan atau pelanggaran hak asasi, yakni:

  • Senjata otonom penuh (AI membuat keputusan serangan tanpa kontrol manusia yang jelas).
  • Pengawasan massal domestik terhadap warga sipil (AI untuk pemantauan besar-besaran yang bisa melanggar privasi).
    Anthropic merasa CAPAIAN SAAT INI dari model AI tidak cukup aman atau andal untuk tugas semacam itu, dan penggunaan semacam itu “bertentangan dengan nilai-nilai demokratis.”

Ini bukan hanya soal takut “AI membunuh orang,” tetapi tentang memastikan AI tidak dipakai untuk mengambil nyawa atau memata-mata warga tanpa kendali manusia yang kuat dan batasan etis.

2. Perbedaan Pengertian “Semua Kegunaan yang Legal”

Pentagon meminta agar Anthropic melonggarkan semua batasan penggunaannya sehingga militer bisa memakai Claude untuk apa pun selama secara hukum diizinkan. Namun Anthropic berpendapat bahwa tanpa batasan eksplisit terhadap hal-hal seperti senjata otonom dan pengawasan, AI itu bisa digunakan untuk hal yang tidak hanya berbahaya tetapi juga bisa melampaui niat awal perusahaan.

Dengan kata lain:

  • Pentagon: “Asalkan hukumnya memperbolehkan, kami ingin gunakan AI kita tanpa batasan dari vendor.”
  • Anthropic: “Kami tidak ingin AI kami dipakai untuk hal-hal seperti otonomi senjata atau pengawasan besar-besaran meskipun itu memang secara formal ‘legal’.”

Ini menimbulkan konflik filosofis yang besar di antara keduanya.

3. Reaksi terhadap Penggunaan AI dalam Operasi Militer

Laporan menunjukkan bahwa Claude telah dipakai oleh militer AS dalam operasi militer seperti penggerebekan di Venezuela yang menewaskan banyak orang dan operasi yang terkait dengan konflik Iran. Meskipun Anthropic menyangkal mengelola operasi itu secara langsung, pertanyaan tentang peran AI dalam situasi tersebut memicu kekhawatiran internal di perusahaan tentang bagaimana teknologi mereka dipakai.

4. Pertahanan Identitas Perusahaan dan Reputasi “Safety-First”

Anthropic memposisikan dirinya sebagai perusahaan yang mengutamakan keselamatan & etika AI sejak awal. Menyetujui permintaan Pentagon untuk menghapus semua batasan itu berarti perusahaan harus meniadakan salah satu pilar strategis mereka dan mungkin akan memicu kritik publik, kehilangan kepercayaan pelanggan, atau konflik internal.

CEO Anthropic, Dario Amodei, bahkan menyatakan bahwa mereka “tidak bisa dengan baik menjalankan hati nurani” menerima permintaan Pentagon untuk hilangkan fitur kesalamatan itu.

Konflik & Tanggapan Pemerintah

Karena penolakan ini, Pentagon membuka kemungkinan:

  • Mencabut kontrak atau memutus kerja sama.
  • Menetapkan Anthropic sebagai “risiko rantai pasokan” (supply chain risk), yang bisa memblokirnya dari kontrak militer lebih luas.

Ini berarti ketegangan tidak hanya bersifat etis, tetapi sudah berkembang menjadi pertikaian kebijakan nasional yang bisa memengaruhi seluruh industri AI.

Ringkasan Jawaban

Anthropic menolak penggunaan Claude dalam operasi militer seperti di Iran dan penggerebekan di Venezuela karena:

  1. Menjaga batasan etis (tidak untuk senjata otonom atau pengawasan massal).
  2. Menolak deradikalisasi penggunaan AI hanya karena “secara hukum diperbolehkan.”
  3. Kekhawatiran atas implikasi nyata penggunaan AI pada manusia.
  4. Melindungi reputasi perusahaan sebagai pionir keselamatan AI.