WASHINGTON – Muncul pertanyaan kritis terkait penggunaan kecerdasan buatan (AI) dalam operasi militer Amerika Serikat. Dilaporkan bahwa militer AS mungkin telah menggunakan AI Claude dari perusahaan Anthropic dalam serangan terhadap Iran, meskipun Presiden Donald Trump sebelumnya telah melarang penggunaannya.
Latar Belakang Larangan AI
Sebelum serangan besar-besaran terhadap Iran pada Sabtu (28/2/2026), Presiden Donald Trump dilaporkan telah mengeluarkan larangan penggunaan AI Claude dari Anthropic dalam operasi militer. Larangan ini disebabkan oleh kekhawatiran terkait keandalan dan potensi risiko keamanan.
AI Claude dari Anthropic
Claude adalah model AI canggih yang dikembangkan oleh Anthropic, perusahaan teknologi yang didirikan oleh mantan peneliti OpenAI. AI ini dikenal dengan kemampuannya dalam:
- Analisis data kompleks
- Pengambilan keputusan strategis
- Perencanaan operasi militer
- Pemrosesan informasi intelijen
Penggunaan dalam Operasi Militer
AI Claude dan teknologi serupa telah diuji coba dalam berbagai skenario militer, termasuk:
- Perencanaan serangan presisi
- Analisis target
- Koordinasi serangan gabungan
- Evaluasi kerusakan
Kontroversi Etika
Penggunaan AI dalam peperangan menimbulkan berbagai pertanyaan etika serius:
- Akurasi: Seberapa andal AI dalam mengidentifikasi target?
- Akuntabilitas: Siapa yang bertanggung jawab jika terjadi kesalahan?
- Transparansi: Sejauh mana pengawasan manusia dalam keputusan AI?
- Risiko Kesalahan: Potensi false positive yang dapat menyebabkan korban sipil
Larangan Trump
Presiden Trump dilaporkan melarang penggunaan Claude karena:
- Kekhawatiran keamanan nasional
- Potensi kerentanan sistem
- Ketidakpastian dalam pengambilan keputusan kritis
- Risiko hacking atau manipulasi
Dugaan Penggunaan dalam Serangan Iran
Meskipun ada larangan, laporan menyebutkan bahwa AI mungkin tetap digunakan dalam operasi serangan ke Iran yang melibatkan:
- Targeting kompleks militer dan nuklir
- Koordinasi dengan militer Israel
- Analisis real-time situasi medan perang
- Optimisasi rute serangan
Respons Anthropic
Anthropic sebagai pengembang Claude belum memberikan pernyataan resmi terkait dugaan penggunaan AI mereka dalam operasi militer. Perusahaan tersebut dikenal memiliki kebijakan penggunaan yang ketat untuk mencegah penyalahgunaan teknologi.
Implikasi
Jika benar AI Claude digunakan dalam serangan Iran, ini memiliki implikasi serius:
- Pelanggaran kebijakan eksekutif
- Precedent penggunaan AI dalam peperangan modern
- Pertanyaan tentang kontrol sipil atas militer
- Eskalasi perlombaan senjata AI
Masa Depan AI dalam Militer
Kasus ini menyoroti kebutuhan mendesak untuk:
- Regulasi internasional tentang AI dalam peperangan
- Transparansi penggunaan teknologi militer
- Protokol pengawasan dan akuntabilitas
- Standar etika global untuk AI militer
Investigasi lebih lanjut diperlukan untuk mengkonfirmasi atau menyangkal dugaan penggunaan AI Claude dalam operasi militer AS di Iran.
Sumber: Berbagai sumber media internasional


























