Kelicikan pemerintah Trump amat tampak dalam merancang serangan ke Iran. Beberapa jam sebelum serangan, mereka beseteru dengan pemilik Claude AI, tapi malah menggunakan sebagai teknologi yang mematikan.
WWW.JERNIH.CO – Di balik dentuman rudal dan manuver jet tempur, muncul sebuah narasi teknologi yang tidak kalah mengejutkan: penggunaan kecerdasan buatan (AI) tingkat tinggi, khususnya Claude AI dari perusahaan Anthropic, dalam perencanaan dan eksekusi serangan tersebut.
Laporan ini menjadi ironis karena terjadi di tengah perselisihan tajam antara pihak pengembang AI dengan pemerintah Amerika Serikat mengenai batasan etika penggunaan teknologi dalam peperangan.
Berdasarkan laporan terbaru dari Wall Street Journal dan berbagai sumber intelijen, Claude AI digunakan secara intensif oleh Komando Pusat AS (CENTCOM) untuk memproses data intelijen dalam jumlah masif guna mengidentifikasi target secara presisi.
Meskipun Anthropic secara resmi melarang modelnya digunakan untuk keputusan mematikan secara otonom, militer dilaporkan memanfaatkan kemampuan analitis Claude untuk menyintesis ribuan jam komunikasi yang disadap, citra satelit, dan data open-source.
Teknologi ini memungkinkan komandan lapangan untuk melakukan simulasi skenario pertempuran secara real-time dan menghitung probabilitas keberhasilan serangan sebelum rudal pertama diluncurkan. Dalam operasi yang disebut sebagai “Operation Lion’s Roar” ini, Claude berperan sebagai “otak” yang menjernihkan kabut informasi (fog of war), memungkinkan serangan gabungan AS-Israel mencapai elemen kejutan taktis yang fatal terhadap struktur kepemimpinan Iran.
Dengan kata lain, meski perusahaan pemilik Claude AI tak membolehkan, namun penguasa AS bisa saja mengintegrasi Claude AI dalam “Kill Chain” modern.
Situasi menjadi sangat kompleks dan ironis ketika diketahui bahwa serangan tersebut dilakukan hanya beberapa jam setelah Presiden Donald Trump mengeluarkan perintah eksekutif untuk memutus kontrak dengan Anthropic. Pemerintah AS secara resmi melabeli Anthropic sebagai “risiko keamanan rantai pasokan”—sebuah penamaan yang biasanya dicadangkan untuk perusahaan asing yang bermusuhan.
Pemicu utama keretakan ini adalah ketegangan mengenai “Constitutional AI” milik Anthropic. Perusahaan tersebut bersikeras pada batasan etika yang mencegah model mereka digunakan untuk pengawasan massal atau senjata otonom tanpa pengawasan manusia. Sikap ini dianggap sebagai “pembangkangan” oleh Pentagon.
Menteri Pertahanan Pete Hegseth bahkan mengkritik sikap Anthropic sebagai hambatan bagi keunggulan militer AS. Ironisnya, meskipun kontrak diputus, militer tetap menggunakan sistem berbasis Claude dalam serangan ke Iran karena teknologi tersebut sudah terintegrasi terlalu dalam ke dalam infrastruktur data perusahaan seperti Palantir, sehingga mustahil untuk dihentikan secara instan tanpa mengganggu operasi.
Di lapangan, dampak dari presisi yang dibantu AI ini sangat menghancurkan. Serangan pada 28 Februari 2026 tersebut dilaporkan mengakibatkan wafatnya Pemimpin Tertinggi Iran, Ayatollah Ali Khamenei, serta sejumlah pejabat tinggi lainnya. Namun, laporan dari Teheran dan organisasi kemanusiaan juga menyoroti jatuhnya korban sipil yang signifikan, termasuk serangan tragis yang menghantam fasilitas pendidikan di Minab.
Hal ini memicu debat global mengenai apakah penggunaan AI benar-benar meningkatkan “presisi” atau justru mempercepat eskalasi konflik menuju tingkat yang tidak terkendali.
Setelah bocor trik pemakaian Claude AI untuk sebuah peperangan, kini pemerintah AS dikabarkan mulai beralih ke pesaing Anthropic, seperti OpenAI dan xAI milik Elon Musk, yang dianggap lebih fleksibel dalam mengakomodasi kebutuhan militer tanpa batasan etika yang seketat Claude.
Kasus Claude AI dalam konflik Iran ini menandai era baru di mana perusahaan teknologi Silicon Valley kini berada di garis depan kebijakan pertahanan nasional. Keterlibatan AI bukan lagi sekadar alat pendukung, melainkan komponen inti yang menentukan hidup dan mati di medan perang.
Peristiwa ini meninggalkan pertanyaan besar bagi masyarakat dunia: Apakah kita siap menghadapi masa depan di mana algoritma memiliki peran krusial dalam menentukan target serangan militer, sementara kendali moral manusia semakin terpinggirkan oleh kecepatan komputasi?(*)
BACA JUGA: Ketika Bos-bos Perusahaan AI Menggunakan AI
