Adversaries Gunakan Multiple AI untuk Hacking dan Influence

Adversaries luar negeri semakin canggih dalam menggunakan berbagai AI tools untuk menggerakkan operasi hacking dan kampanye pengaruh, dengan ChatGPT sebagai otak perencanaan sementara model AI lain mengeksekusi serangan - dari phishing otomatis hingga pembuatan malware - menurut laporan terbaru OpenAI yang mengungkap taktik baru dari kelompok nation-state China dan Rusia. Pola multi-model ini memberikan investigator hanya "sekilas pandangan" tentang bagaimana pelaku ancaman sebenarnya memanfaatkan AI, menciptakan blind spots berbahaya dalam deteksi ancaman siber global.
Taktik Baru: Satu AI untuk Rencana, AI Lain untuk Eksekusi
OpenAI mengungkapkan temuan mengkhawatirkan dalam laporan threat intelligence terbarunya: adversaries luar negeri tidak lagi bergantung pada satu AI tool saja, tetapi mengorkestra berbagai AI models untuk menciptakan serangan yang lebih canggih dan sulit dilacak. Dalam kasus-kasus yang ditemukan, pelaku ancaman biasanya menggunakan ChatGPT untuk merencanakan skema mereka, kemudian beralih ke model lain - termasuk DeepSeek milik China - untuk menjalankan eksekusi aktual.[1]
Pola ini menandai evolusi signifikan dalam persenjataan AI untuk cyberattacks. OpenAI melarang beberapa akun yang terkait dengan kampanye nation-state yang tampak menggunakan berbagai AI models untuk meningkatkan operasi mereka. Salah satu aktor berbasis Rusia terdeteksi menghasilkan konten untuk operasi pengaruh terselubung menggunakan ChatGPT untuk menulis prompts yang tampaknya ditujukan untuk AI video model lain - menunjukkan bahwa mereka menggunakan ChatGPT sebagai "asisten penulis" untuk memberikan instruksi ke tool yang lebih khusus.[2]
Kelompok akun berbahasa China menggunakan ChatGPT untuk meneliti dan menyempurnakan otomasi phishing yang ingin mereka jalankan di DeepSeek, model berbasis China. OpenAI juga mengkonfirmasi bahwa seorang aktor yang sebelumnya mereka ganggu adalah aktor yang sama yang baru-baru ini ditandai Anthropic dalam laporan ancaman mereka, menunjukkan bahwa mereka menggunakan ChatGPT dan Claude secara bersamaan.
Ben Nimmo, investigator utama di tim intelligence and investigations OpenAI, mengatakan kepada wartawan bahwa perusahaan sebagian besar mengamati pelaku ancaman menggunakan ChatGPT untuk meningkatkan taktik yang sudah ada, bukan menciptakan yang baru. Namun, pendekatan multi-model berarti bahwa investigator hanya memiliki "sekilas pandangan" tentang bagaimana pelaku ancaman menggunakan model tertentu - menciptakan blind spots signifikan dalam memahami cakupan penuh serangan.[3]
Yang membuat taktik ini sangat berbahaya adalah kemampuan adversaries untuk memfragmentasi jejak digital mereka di berbagai platform. Ketika setiap penyedia AI hanya melihat sebagian kecil dari rantai serangan, menjadi jauh lebih sulit untuk mendeteksi dan mencegah kampanye secara keseluruhan.
Adversaries Belajar Menyembunyikan Jejak AI
Tim riset OpenAI juga menemukan bahwa peretas nation-state dan penipu belajar menyembunyikan tanda-tanda penggunaan AI - membuat deteksi semakin menantang. Dalam satu contoh yang mengungkapkan, sebuah jaringan penipuan meminta ChatGPT untuk menghapus em dashes dari tulisannya, menunjukkan bahwa mereka sadar tentang keanehan linguistik yang dapat mengidentifikasi konten yang dihasilkan AI.[4]
Ini menandakan tingkat kecanggihan yang mengkhawatirkan: adversaries tidak hanya menggunakan AI tools, tetapi juga secara aktif mempelajari bagaimana menghindari tanda deteksi yang digunakan peneliti keamanan untuk mengidentifikasi serangan yang dihasilkan AI. Beberapa taktik yang diamati termasuk:
Kamuflase Linguistik: Penipu meminta AI untuk menghilangkan atau mengubah penanda gaya yang khas dari tulisan AI, seperti penggunaan em dashes berlebihan, struktur kalimat yang terlalu formal, atau pola frasa yang berulang.
Rotasi Akun: Pelaku ancaman menggunakan akun email sementara untuk mendaftar ChatGPT, menggunakan setiap akun yang dibuat untuk hanya satu percakapan untuk membuat satu output jahat, kemudian meninggalkan akun tersebut - membuat atribusi dan pelacakan sangat sulit.
Pencarian Model: Adversaries tampaknya menguji kemampuan berbagai AI models untuk tugas tertentu, memilih yang paling efektif untuk setiap komponen serangan mereka. ChatGPT untuk perencanaan dan riset, DeepSeek untuk eksekusi di serangan yang menargetkan China, dan berpotensi model lain untuk tugas seperti kloning suara atau pembuatan video.
OpenAI mengidentifikasi beberapa kampanye spesifik yang menggunakan taktik canggih ini. Dalam laporan terbaru bulan Juni 2025, perusahaan melarang akun yang tampaknya terkait dengan entitas berbasis China dan kelompok kriminal berbahasa Rusia karena menggunakan model untuk membantu mengembangkan malware dan menulis email phishing.[5]
Yang sangat mengkhawatirkan, perusahaan juga melarang akun yang terkait dengan entitas pemerintah China, termasuk beberapa yang meminta model OpenAI untuk "menghasilkan proposal kerja untuk sistem skala besar yang dirancang untuk memantau percakapan media sosial" - menunjukkan aplikasi pengawasan potensial yang meluas.
Dari Pekerja IT ke Pemantauan Media Sosial: Berbagai Serangan
Keragaman serangan yang terdeteksi oleh OpenAI menunjukkan bahwa persenjataan AI tidak terbatas pada ancaman siber tradisional. Laporan mengidentifikasi berbagai jenis operasi yang memanfaatkan AI:
Skema Pekerjaan Menipu: Pekerja IT Korea Utara menggunakan AI tools untuk memalsukan kartu identitas militer yang realistis dalam kampanye phishing terhadap target Korea Selatan. Genians Security Center mengungkap bahwa penyerang yang terkait dengan unit spionase Kimsuky menggunakan AI untuk menciptakan ID deepfake yang memungkinkan mereka menyamarkan email phishing dari domain palsu yang menyamar sebagai institusi pertahanan.[6]
Pengembangan Malware: Aktor berbahasa Rusia menggunakan ChatGPT untuk membantu mengembangkan dan menyempurnakan malware Windows, debugging kode di berbagai bahasa, dan menyiapkan infrastruktur command-and-control. Kampanye yang diberi nama kode "ScopeCreep" oleh OpenAI menunjukkan aktor mendemonstrasikan pengetahuan tentang internal Windows dan menunjukkan perilaku keamanan operasional yang canggih.[7]
Operasi Pengaruh: Berbagai operasi pengaruh terselubung yang dilacak oleh OpenAI menunjukkan penggunaan AI untuk menghasilkan konten dalam skala besar. Operasi "Uncle Spam" dan "Helgoland Bite" adalah contoh dari kampanye yang menggunakan AI models untuk memproduksi konten propaganda, artikel berita palsu, dan postingan media sosial yang dimanipulasi.
Otomasi Phishing: Kelompok akun berbahasa China menggunakan ChatGPT untuk meneliti dan menyempurnakan skrip otomasi phishing. Mereka secara khusus ingin menjalankan otomasi di DeepSeek, menunjukkan upaya terkoordinasi untuk memanfaatkan infrastruktur AI lokal untuk serangan yang menargetkan populasi berbahasa China atau entitas dengan bisnis di China.
Sistem Pengawasan Media Sosial: Yang paling Orwellian, akun yang terkait dengan pemerintah China meminta model OpenAI untuk menghasilkan proposal untuk sistem skala besar yang dirancang untuk memantau percakapan media sosial. Ini menunjukkan ambisi untuk membangun sistem pengawasan massal bertenaga AI yang dapat melacak dan menganalisis wacana online dalam skala yang belum pernah terjadi.[8]
OpenAI mencatat bahwa kampanye yang diidentifikasi tidak tampak sangat efektif berdasarkan metrik yang diamati. Namun, Ben Nimmo memperingatkan bahwa entitas nation-state masih dalam tahap awal eksperimen AI mereka. Kurangnya efektivitas saat ini tidak menjamin bahwa serangan masa depan akan sama-sama tidak berhasil - terutama karena AI models menjadi lebih mampu dan adversaries mendapatkan lebih banyak pengalaman dalam memanfaatkannya.
Implikasi untuk Keamanan Siber dan Pengembang AI
Temuan OpenAI memiliki implikasi mendalam untuk komunitas keamanan siber dan pengembang AI. Strategi serangan multi-model menciptakan tantangan signifikan untuk pembela yang secara tradisional fokus pada mengamankan platform individual atau mendeteksi ancaman dari sumber tunggal.
Untuk Penyedia AI: Perusahaan AI perlu berkolaborasi lebih erat untuk berbagi intelligence ancaman dan mengidentifikasi serangan terkoordinasi di seluruh platform. Pendekatan terisolasi saat ini di mana setiap penyedia hanya melihat fragmen dari rantai serangan tidak memadai untuk mengatasi ancaman multi-model yang canggih.
Untuk Tim Keamanan: Organisasi perlu mengembangkan metodologi deteksi baru yang dapat mengidentifikasi serangan yang dibantu AI meskipun adversaries secara aktif menyembunyikan tanda AI. Ini memerlukan pemahaman pola halus dan perilaku yang membedakan serangan yang dibuat manusia versus yang ditingkatkan AI, bahkan ketika adversaries mencoba menyamarkan.
Untuk Pengembang dan Peneliti AI: Komunitas perlu menyeimbangkan antara membuat AI tools dapat diakses untuk pengguna yang sah sambil menerapkan perlindungan yang mencegah penyalahgunaan tanpa menciptakan hambatan yang berlebihan. Pendekatan OpenAI untuk melarang akun dan menerbitkan laporan ancaman adalah langkah positif, tetapi langkah-langkah proaktif lebih lanjut mungkin diperlukan.
Untuk Pembuat Kebijakan: Pemerintah perlu mempertimbangkan regulasi yang mewajibkan penyedia AI untuk menerapkan sistem deteksi penyalahgunaan yang kuat dan berbagi intelligence ancaman dengan otoritas dan platform lain. Kerjasama internasional akan krusial untuk mengatasi aktor nation-state yang beroperasi melintasi perbatasan.
Yang jelas dari laporan OpenAI adalah bahwa adversaries berinovasi dengan cepat dalam cara mereka mempersenjatai AI. Komunitas pertahanan harus menyamai kecepatan inovasi ini dengan mengembangkan tindakan balasan yang sama canggih, kolaboratif, dan adaptif.
(Burung Hantu Infratek / Berbagai Sumber)
⚠️ Berita ini seluruhnya diriset, ditulis, dan dikembangkan oleh AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.
Berita yang terkait:
Malware Pertama Bertenaga GPT-4 Ciptakan Ransomware Otomatis
ChatGPT Ajarkan Membuat Bom dan Tips Peretasan dalam Tes Keamanan
Sumber dan Referensi:
[1] Foreign adversaries are using multiple AI tools to power hacks - Axios
[2] Disrupting malicious uses of AI: June 2025 - OpenAI Threat Report
[3] The Dark Side of AI: OpenAI's Groundbreaking Report - ComplianceHub
[4] ChatGPT Exploited in North Korean Cyber Espionage Campaign - Genians
[5] OpenAI Bans ChatGPT Accounts Used by Russian and Chinese Hacker Groups - Computer Odyssey
[6] Russian Cyber Threat Group Uses AI-Guided Malware - FDD
[7] Russia-Linked CopyCop Uses LLMs to Weaponize Influence Content - Recorded Future
