AI Masuk Medan Operasi Militer, Model Claude Milik Anthropic Disebut Digunakan dalam Serangan AS di Venezuela
— Keterlibatan kecerdasan buatan (AI) dalam operasi militer Amerika Serikat (AS) kembali menjadi sorotan global.
Laporan eksklusif menyebut model AI Claude, yang dikembangkan oleh Anthropic, digunakan dalam operasi militer AS di Venezuela yang menargetkan Presiden Nicolás Maduro. Penggunaan AI dalam operasi bersenjata ini menandai babak baru relasi antara perusahaan teknologi dan Departemen Pertahanan AS.
Menurut laporan The Wall Street Journal, Claude dipakai dalam operasi yang dilakukan melalui kemitraan Anthropic dengan Palantir Technologies, kontraktor pertahanan yang lama bekerja sama dengan Pentagon dan lembaga penegak hukum federal AS. Operasi tersebut disebut melibatkan pemboman di Caracas dan menewaskan 83 orang, berdasarkan keterangan Kementerian Pertahanan Venezuela.
Dilansir dari The Guardian, Senin (16/2/2026), Claude menjadi pengembang AI pertama yang diketahui digunakan dalam operasi rahasia Departemen Pertahanan AS. Laporan itu menyebut, “Claude, model AI yang dikembangkan oleh Anthropic, digunakan oleh militer AS selama operasinya untuk menculik Nicolás Maduro dari Venezuela,” sebagaimana diungkap The Wall Street Journal.
Namun demikian, penggunaan tersebut memunculkan pertanyaan serius. Dalam ketentuan layanannya, Anthropic melarang penggunaan Claude “untuk tujuan kekerasan, untuk pengembangan senjata, atau untuk melakukan pengawasan.” Hingga kini belum jelas bagaimana model yang memiliki kemampuan mulai dari memproses PDF hingga mengendalikan drone otonom itu diterapkan dalam operasi tersebut.
Seorang juru bicara Anthropic menolak mengonfirmasi secara spesifik keterlibatan Claude dalam operasi itu, tetapi menegaskan bahwa “setiap penggunaan alat AI harus mematuhi kebijakan penggunaan kami.” Sementara itu, Departemen Pertahanan AS tidak memberikan komentar atas klaim tersebut. Palantir juga menolak memberikan tanggapan atas laporan yang beredar.
Di sisi lain, militer AS bukan satu-satunya yang mengintegrasikan AI dalam operasi tempur. Militer Israel, misalnya, menggunakan drone dengan kemampuan otonom di Gaza serta memanfaatkan AI untuk memperluas bank targetnya. AS sendiri dalam beberapa tahun terakhir telah memakai sistem penargetan berbasis AI untuk serangan di Irak dan Suriah.
Kritikus memperingatkan risiko fatal dari otomatisasi keputusan mematikan. Mereka menyoroti potensi kesalahan penargetan akibat sistem komputer yang menentukan siapa yang boleh dan tidak boleh dibunuh. Kekhawatiran ini sejalan dengan pernyataan CEO Anthropic, Dario Amodei, yang sebelumnya menyerukan regulasi ketat. Dia menekankan pentingnya aturan untuk “mencegah dampak berbahaya dari penerapan AI,” serta menyatakan kewaspadaannya terhadap penggunaan AI dalam operasi mematikan otonom dan pengawasan di AS.
Sikap hati-hati tersebut dinilai menimbulkan friksi dengan Pentagon. Menteri Pertahanan AS, Pete Hegseth, pada Januari lalu menyatakan bahwa Pentagon tidak akan memakai “model AI yang tidak bisa digunakan dalam peperangan.” Artinya, militer AS hanya akan bekerja sama dengan perusahaan yang mengizinkan teknologinya dipakai untuk operasi tempur. Dia menambahkan bahwa militer membutuhkan sistem yang dapat diintegrasikan penuh dalam konteks peperangan, bukan teknologi yang dibatasi oleh kebijakan internal perusahaan.
Adapun pada Januari, Pentagon juga mengumumkan kerja sama dengan xAI milik Elon Musk. Selain itu, Departemen Pertahanan diketahui memakai versi khusus Gemini dari Google serta sistem dari OpenAI untuk mendukung riset. Dengan keterlibatan nama besar seperti Musk, batas antara inovasi komersial dan kepentingan militer kian kabur—sebuah dinamika yang berpotensi mendefinisikan ulang wajah peperangan modern.
Tag: #masuk #medan #operasi #militer #model #claude #milik #anthropic #disebut #digunakan #dalam #serangan #venezuela