Anthropic Cabut Janji Keamanan AI Demi Persaingan

Anthropic Cabut Janji Keamanan AI Demi Persaingan

Perusahaan AI yang selama ini membanggakan diri sebagai yang paling peduli keamanan, kini resmi mundur dari janjinya sendiri. Anthropic mengumumkan perombakan besar-besaran terhadap Responsible Scaling Policy (RSP), termasuk mencabut komitmen utama untuk tidak pernah melatih model AI tanpa jaminan keamanan terlebih dahulu. Langkah ini datang di tengah tekanan Pentagon, persaingan sengit dengan OpenAI dan xAI, serta valuasi perusahaan yang meroket hingga $380 miliar. Bagi AI integrator Indonesia dan pengembang solusi AI di seluruh dunia, keputusan ini menjadi sinyal bahwa era "safety first" dalam pengembangan AI mulai goyah.


Janji 2023 yang Kini Dibuang ke Tong Sampah

Pada 2023, Anthropic membuat komitmen yang dianggap revolusioner di industri AI. Perusahaan berjanji tidak akan pernah melatih sistem AI kecuali bisa menjamin bahwa langkah-langkah keamanannya sudah memadai. Janji ini menjadi pilar utama Responsible Scaling Policy (RSP), dokumen yang selama bertahun-tahun dibanggakan sebagai bukti bahwa Anthropic adalah perusahaan yang bertanggung jawab.

Namun dalam wawancara eksklusif dengan TIME, Chief Science Officer Anthropic Jared Kaplan mengungkap bahwa janji tersebut kini resmi dicabut. "Kami merasa tidak akan membantu siapapun jika kami berhenti melatih model AI," kata Kaplan. "Dengan kemajuan AI yang begitu cepat, tidak masuk akal bagi kami untuk membuat komitmen sepihak sementara kompetitor terus melaju."

RSP versi 3.0 yang dirilis 24 Februari 2026 ini disetujui secara bulat oleh CEO Dario Amodei dan seluruh jajaran direksi Anthropic. Dokumen baru ini tetap berkomitmen pada transparansi dan menjanjikan akan menyamai atau melampaui upaya keamanan kompetitor. Namun kunci perubahannya jelas, Anthropic kini tidak lagi terikat untuk menghentikan pelatihan model meski risiko keamanan belum sepenuhnya dimitigasi.

Dari Garis Merah Tegas ke Gradien Abu-abu

Kaplan menjelaskan beberapa alasan di balik perubahan drastis ini. Pertama, regulasi AI yang diharapkan menjadi pagar pengaman industri tidak pernah terwujud. Pemerintahan Trump justru mendorong pendekatan "biarkan saja" terhadap pengembangan AI, bahkan berusaha membatalkan regulasi negara bagian. Tidak ada undang-undang federal AI di cakrawala.

Kedua, ilmu evaluasi keamanan AI ternyata jauh lebih rumit dari perkiraan Anthropic. Pada 2025, perusahaan mengakui tidak bisa mengesampingkan kemungkinan modelnya memfasilitasi serangan bioterorisme. Namun mereka juga tidak punya bukti kuat bahwa model tersebut benar-benar berbahaya. Apa yang sebelumnya dibayangkan sebagai "garis merah terang" ternyata lebih mirip gradien kabur yang sulit dijadikan acuan.

Ketiga, dan ini yang paling krusial, Anthropic tetap berpegang pada premis pendiriannya. Untuk melakukan riset keamanan AI yang benar, mereka harus membangun model di garis depan kemampuan teknologi. "Jika satu pengembang AI menghentikan pengembangan sementara yang lain terus maju tanpa mitigasi kuat, hasilnya adalah dunia yang kurang aman," tulis RSP versi baru tersebut.

Chris Painter, direktur kebijakan di METR (organisasi nirlaba evaluasi model AI), menyebut perubahan ini sebagai sinyal bearish bagi kemampuan dunia menangani potensi bencana AI. "Ini menunjukkan Anthropic percaya mereka harus beralih ke mode triase dalam rencana keamanannya, karena metode untuk menilai dan memitigasi risiko tidak mengimbangi laju kemampuan," kata Painter kepada TIME.

Painter juga mengkhawatirkan efek "rebusan katak", di mana bahaya perlahan meningkat tanpa ada satu momen yang memicu alarm. Tanpa ambang batas biner yang tegas seperti di RSP lama, risiko ini menjadi sangat nyata.

Keamanan AI Global Kini di Persimpangan Jalan

Sebagai kompensasi, Anthropic menjanjikan beberapa mekanisme baru. Perusahaan akan menerbitkan "Frontier Safety Roadmaps" yang memuat daftar detail tujuan keamanan, serta "Risk Reports" setiap tiga hingga enam bulan yang menjelaskan bagaimana kemampuan, model ancaman, dan mitigasi risiko saling terkait.

Namun konteksnya sulit diabaikan. Keputusan ini datang hanya beberapa hari setelah Menteri Pertahanan AS Pete Hegseth memberikan ultimatum kepada Anthropic untuk membuka akses penuh model Claude bagi militer. Anthropic juga baru saja mengumpulkan investasi $30 miliar dan pendapatannya tumbuh 10 kali lipat per tahun. Claude Code telah meraup $1 miliar dalam enam bulan pertama.

Bagi ekosistem pengembang solusi AI, keputusan Anthropic ini menjadi preseden berbahaya. Jika perusahaan yang selama ini paling vokal soal keamanan AI saja mundur dari komitmennya, apa yang bisa diharapkan dari perusahaan lain? Di tengah absennya regulasi federal dan persaingan geopolitik AI antara AS dan China, standar keamanan industri kini bergantung sepenuhnya pada komitmen sukarela yang terbukti bisa dicabut kapan saja.

Seperti yang diungkapkan Painter dari METR, "Ini adalah bukti bahwa masyarakat belum siap menghadapi potensi risiko bencana yang ditimbulkan oleh AI."

(Burung Hantu Infratek / Berbagai Sumber)


⚠️ Berita ini seluruhnya diriset, ditulis, dan dikembangkan dengan bantuan AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.

🦉 Burung Hantu Infratek adalah software house dan system integrator yang sudah berpengalaman lebih dari 5 tahun dalam pengembangan dan implementasi generative AI pada berbagai perusahaan dan institusi.


Berita Terkait Anthropic dan Keamanan AI

🔥 Pentagon Ancam Putus Kontrak $200 Juta dengan Anthropic

Anthropic Kantongi $20 Miliar, Investor Berebut Masuk

🤖 Anthropic Rilis Claude Cowork AI Agent untuk Non-Developer

💡 OpenClaw Jadi Mimpi Buruk Keamanan AI Agent


Sumber dan Referensi

[1] Exclusive: Anthropic Drops Flagship Safety Pledge

[2] Anthropic's Responsible Scaling Policy: Version 3.0

[3] Anthropic Dials Back AI Safety Commitments

[4] Responsible Scaling Policy Updates

[5] Anthropic's Frontier Safety Roadmap