Keputusan Presiden Amerika Serikat Donald Trump memblokir perusahaan kecerdasan buatan Anthropic berubah menjadi ironi besar hanya dalam hitungan jam.
Setelah secara resmi melabeli perusahaan tersebut sebagai ancaman keamanan nasional dan memerintahkan penghentian penggunaannya di seluruh lembaga federal, militer Amerika justru dilaporkan tetap menggunakan teknologi AI Anthropic dalam operasi serangan terhadap Iran.
Kejadian ini membuka perdebatan baru tentang bagaimana negara adidaya memanfaatkan teknologi canggih di medan perang - bahkan ketika secara resmi melarangnya.
SCROLL TO CONTINUE WITH CONTENT
Trump Resmi Blokir Anthropic
Pada 27 Februari 2026, pemerintahan Trump melalui Departemen Pertahanan menetapkan Anthropic sebagai "risiko rantai pasokan keamanan nasional". Langkah ini tergolong ekstrem karena biasanya label tersebut diberikan kepada perusahaan asing yang dianggap berpotensi mengancam keamanan Amerika.
Keputusan itu dipicu konflik antara Pentagon dan Anthropic terkait batas penggunaan AI dalam operasi militer. Anthropic menolak mencabut dua pembatasan utama pada model AI mereka, Claude: larangan penggunaan untuk pengawasan massal terhadap warga AS dan larangan pengembangan senjata otonom mematikan tanpa kendali manusia.
Pentagon menginginkan fleksibilitas penuh untuk semua tujuan hukum demi kepentingan pertahanan negara. Namun CEO Anthropic, Dario Amodei, menegaskan bahwa perusahaan tidak akan menghapus guardrails tersebut, meski mendapat tekanan politik.
Tak lama setelah keputusan diumumkan, Trump melalui platform Truth Social memerintahkan seluruh lembaga federal menghentikan penggunaan teknologi Anthropic.
Anthropic Foto: ITP |
Ironi di Medan Tempur
Ironinya, hanya beberapa jam setelah pemblokiran diumumkan, militer Amerika Serikat tetap menggunakan model AI Claude dalam operasi terhadap Iran.
Laporan media internasional menyebutkan bahwa Komando Pusat AS (CENTCOM) memanfaatkan Claude untuk analisis intelijen, identifikasi target, serta simulasi skenario pertempuran sebelum serangan diluncurkan.
Hal ini terjadi karena kontrak antara Anthropic dan Pentagon memiliki masa transisi penghentian. Artinya, sistem Claude masih aktif di jaringan militer saat operasi berlangsung.
Fakta tersebut menunjukkan betapa dalamnya integrasi AI dalam infrastruktur pertahanan modern. Meskipun secara politik diblokir, secara teknis sistemnya masih berjalan dan berfungsi.
Situasi ini menciptakan paradoks: pemerintah menyatakan teknologi itu sebagai ancaman, tetapi tetap mengandalkannya untuk misi strategis berskala besar.
A plume of smoke rises following a reported explosion in Tehran on February 28, 2026. Iran said on February 28 it will "respond decisively" after Israel and the United States launched strikes on the country despite talks underway on Tehran's nuclear programme. (Photo by AFP) Foto: AFP |
OpenAI Masuk Mengisi Kekosongan
Kontroversi ini membuka babak baru dalam hubungan antara perusahaan teknologi dan militer. Anthropic berdiri dengan filosofi keselamatan AI, sementara Pentagon melihat AI sebagai alat strategis untuk menjaga keunggulan geopolitik.
Di tengah konflik tersebut, rival Anthropic, OpenAI, segera mengumumkan kerja sama baru dengan pemerintah AS untuk menyediakan model AI dalam jaringan rahasia militer.
Kesepakatan ini dilaporkan mencakup prinsip-prinsip yang mirip dengan yang ditentang Anthropic, seperti pembatasan penggunaan untuk mass surveillance dan potensi senjata otonom.
Langkah cepat ini memicu spekulasi di media sosial bahwa konflik antara pemerintah dan Anthropic memiliki unsur politik di baliknya, seiring dengan munculnya dukungan masyarakat terhadap Claude di platform seperti X dan Reddit. Popularitas Claude melonjak menjadi salah satu aplikasi paling banyak diunduh di App Store AS setelah kontroversi ini merebak, demikian dilansir dari The Guardian.
(afr/afr)



