OpenClaw Jadi Mimpi Buruk Keamanan AI Agent

OpenClaw Jadi Mimpi Buruk Keamanan AI Agent

OpenClaw, AI agent open-source paling viral di dunia, ternyata menyimpan lubang keamanan yang membuat para pakar keamanan siber angkat bicara. Cisco secara tegas menyebut OpenClaw sebagai "security nightmare" karena kemampuannya menjalankan shell commands, membaca dan menulis file, serta mengeksekusi script langsung di mesin pengguna tanpa batasan yang memadai. Kebocoran API key dalam format plaintext, kerentanan prompt injection, dan eskalasi hak akses tanpa disadari pengguna menjadikan AI agent yang digandrungi jutaan orang ini sebagai bom waktu keamanan siber.


Dari Viral ke Alarm Keamanan Siber

OpenClaw, yang sebelumnya dikenal sebagai Clawdbot lalu Moltbot, meledak popularitasnya dalam beberapa minggu terakhir sebagai asisten AI personal open-source yang bisa melakukan hal-hal nyata. Mulai dari memesan tiket penerbangan, mengelola kalender, mengirim email, hingga membuat reservasi restoran, semuanya berjalan langsung dari WhatsApp atau iMessage pengguna.

Namun di balik kemampuan yang menggiurkan itu, tim riset keamanan AI Cisco menemukan masalah fundamental. OpenClaw bisa menjalankan shell commands, membaca dan menulis file, serta mengeksekusi script di mesin pengguna. Memberikan privilege setinggi itu kepada AI agent adalah resep bencana jika terjadi miskonfigurasi atau jika pengguna mengunduh skill yang sudah disuntik instruksi berbahaya.

Yang lebih mengkhawatirkan, OpenClaw sudah dilaporkan membocorkan API key dan credentials dalam format plaintext. Kunci-kunci ini bisa dicuri oleh threat actor melalui prompt injection atau endpoint yang tidak diamankan. Integrasi OpenClaw dengan aplikasi messaging juga memperluas attack surface, di mana penyerang bisa menyusupkan prompt berbahaya yang memicu perilaku tidak diinginkan.

Dokumentasi produk OpenClaw sendiri mengakui secara terbuka bahwa "tidak ada setup yang benar-benar aman." Memberikan akses tak terbatas kepada AI agent atas data pengguna, meskipun berjalan secara lokal, adalah bencana yang menunggu terjadi jika ada konfigurasi yang salah.

Skills Berbahaya yang Lolos Tanpa Filter

Salah satu temuan paling mengejutkan datang dari analisis Cisco terhadap sistem "skills" OpenClaw. Skills adalah plugin atau aplikasi yang bisa digunakan AI agent untuk mengambil tindakan, mulai dari mengakses file, browsing web, hingga menjalankan perintah. Bedanya dengan aplikasi biasa, OpenClaw memutuskan sendiri kapan menggunakan skills ini dan bagaimana merangkainya. Artinya, kesalahan permission kecil bisa dengan cepat membola salju menjadi sesuatu yang jauh lebih serius.

Tim Cisco menguji sebuah skill pihak ketiga bernama "What Would Elon Do?" menggunakan Skill Scanner yang mereka kembangkan. Hasilnya mengejutkan: skill tersebut secara fungsional adalah malware. Scanner menemukan 9 temuan keamanan, termasuk 2 kategori critical dan 5 high severity. Skill itu secara aktif melakukan data exfiltration dengan menginstruksikan bot untuk mengeksekusi perintah curl yang mengirim data ke server eksternal milik pembuat skill, semuanya tanpa sepengetahuan pengguna.

Riset Cisco juga mengungkap bahwa 26% dari 31.000 agent skills yang dianalisis mengandung setidaknya satu kerentanan. Yang lebih berbahaya, skill jahat "What Would Elon Do?" berhasil diinflasi hingga menjadi skill nomor 1 di repository. Ini membuktikan bahwa aktor jahat bisa memanufaktur popularitas di atas siklus hype yang sudah ada, membuat pengguna yang tidak waspada mengunduh malware yang menyamar sebagai tool produktivitas.

Pakar Keamanan Beri Lampu Merah

Colin Shea-Blymyer, peneliti di Georgetown Center for Security and Emerging Technology (CSET), menjelaskan bahwa risiko keamanan OpenClaw sebenarnya cukup klasik. "Bayangkan menggunakannya untuk mengakses halaman reservasi restoran dan ia juga punya akses ke kalender Anda dengan segala informasi pribadi," katanya kepada Fortune. "Atau bagaimana jika itu malware dan menemukan halaman yang salah lalu menginstal virus?"

Shea-Blymyer mengakui bahwa OpenClaw memang punya halaman keamanan di dokumentasinya dan berusaha menjaga pengguna tetap waspada. Namun masalah keamanan ini tetap merupakan problem teknis kompleks yang kebanyakan pengguna biasa tidak akan sepenuhnya pahami. "Itu adalah ketegangan fundamental dalam sistem semacam ini," jelasnya. "Semakin banyak akses yang Anda berikan, semakin menarik dan seru, tapi juga semakin berbahaya."

Ben Seri, CTO Zafran Security, menambahkan bahwa perusahaan enterprise akan jauh lebih lambat mengadopsi sistem yang tidak terkontrol dan tidak aman seperti OpenClaw. Namun ia mengakui sulit menekan rasa penasaran pengguna individu. Seri menyarankan agar pengguna bereksperimen seolah sedang bekerja di laboratorium kimia dengan bahan yang sangat mudah meledak.

Survei terbaru Ivanti terhadap 1.200 profesional keamanan mengungkap bahwa 77% merasa "cukup nyaman" membiarkan sistem AI otonom bertindak tanpa pengawasan manusia. Daniel Spicer, CISO Ivanti, justru memperingatkan bahwa kenyamanan ini berbahaya. Ia menyebutnya sebagai "Cybersecurity Readiness Deficit" yang melebar dari tahun ke tahun. Sementara OpenClaw mungkin masih eksperimen hobi hari ini, pakar keamanan melihatnya sebagai preview dari jenis sistem otonom yang akan dirasakan tekanannya oleh enterprise untuk di-deploy di masa depan.

(Burung Hantu Infratek / Berbagai Sumber)


⚠️ Berita ini seluruhnya diriset, ditulis, dan dikembangkan dengan bantuan AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.


Berita Terkait OpenClaw dan Keamanan AI

🤖 Pencipta OpenClaw Gabung OpenAI, Proyek Jadi Open Source Foundation

🔥 China Pakai Claude AI untuk Serangan Siber Pertama

💼 Microsoft Ungkap SesameOp: Malware Eksploitasi OpenAI API

🚀 Anthropic Tendang OpenAI Dari Akses Claude


Sumber dan Referensi

[1] OpenClaw is the bad boy of AI agents. Here's why security experts say you should beware - Fortune

[2] Personal AI Agents like OpenClaw Are a Security Nightmare - Cisco Blogs

[3] Clawdbot to Moltbot to OpenClaw: The AI agent generating buzz and fear globally - CNBC

[4] The OpenClaw experiment is a warning shot for enterprise AI security - Sophos

[5] New OpenClaw AI agent found unsafe for use - Kaspersky

[6] OpenClaw & MoltBot: The First AI Agent Security Nightmare - Astrix Security