CEO Google: Jangan Langsung Percaya AI, Rentan Error

CEO Google: Jangan Langsung Percaya AI, Rentan Error

CEO Google: Jangan Langsung Percaya AI, Rentan Error

Dalam momen ironis yang menggemparkan industri teknologi, CEO Google Sundar Pichai memberikan peringatan keras kepada pengguna untuk tidak "langsung percaya" apa yang dikatakan alat AI, mengakui bahwa model AI "rentan terhadap kesalahan" dan harus digunakan bersama alat lainnya. Pernyataan kontroversial ini muncul bersamaan dengan peluncuran Gemini 3, model AI paling canggih Google, menciptakan paradoks di mana perusahaan yang menjual kecerdasan buatan justru memperingatkan bahwa produk mereka tidak bisa dipercaya sepenuhnya. Akademisi dan ahli menilai ini sebagai pengakuan tanggung jawab yang seharusnya memicu Google untuk fokus memperbaiki sistem, bukan meminta pengguna memeriksa fakta dari keluaran mereka.


Peringatan Pichai di Tengah Peluncuran Gemini 3

Dalam wawancara eksklusif dengan BBC, Sundar Pichai menyatakan bahwa orang-orang harus belajar menggunakan alat AI "untuk apa yang mereka kuasai, dan tidak langsung percaya semua yang mereka katakan." Pichai menjelaskan bahwa meskipun alat AI bermanfaat "jika Anda ingin menulis sesuatu secara kreatif," pengguna harus tetap kritis terhadap keluaran yang dihasilkan.

"Kami bangga dengan jumlah pekerjaan yang kami investasikan untuk memberikan informasi seakurat mungkin, tetapi teknologi AI tercanggih saat ini rentan terhadap beberapa kesalahan," kata Pichai kepada BBC. Dia menekankan pentingnya memiliki "ekosistem informasi yang kaya" daripada hanya mengandalkan teknologi AI. "Ini mengapa orang juga menggunakan pencarian Google, dan kami punya produk lain yang lebih berakar dalam menyediakan informasi akurat."

Pernyataan ini datang di tengah kontroversi seputar Google AI Overviews yang peluncurannya diwarnai kritik dan ejekan atas beberapa respons yang tidak menentu dan tidak akurat. Google menampilkan penafian pada alat AI mereka untuk memberi tahu pengguna bahwa sistem bisa membuat kesalahan, namun ini tidak menghindarkan perusahaan dari kritik pedas atas kesalahan yang dibuat produk mereka.

Kritik Akademisi: Google Harus Bertanggung Jawab

Gina Neff, profesor AI bertanggung jawab di Queen Mary University of London, memberikan kritik tajam terhadap pendekatan Google. "Kita tahu sistem-sistem ini membuat jawaban dan mereka membuat jawaban untuk menyenangkan kita, dan itu adalah masalah," kata Neff dalam program BBC Radio 4 Today.

Neff membedakan kasus penggunaan yang dapat diterima dari yang bermasalah. "Tidak apa-apa jika saya bertanya 'film apa yang harus saya tonton berikutnya', sangat berbeda jika saya bertanya pertanyaan sensitif tentang kesehatan saya, kesejahteraan mental, tentang sains, tentang berita." Dia mendesak Google untuk mengambil lebih banyak tanggung jawab atas produk AI dan akurasinya, daripada melempar tanggung jawab tersebut kepada konsumen.

Dalam kritik paling pedas, Neff menyatakan: "Perusahaan ini sekarang meminta untuk menilai kertas ujian mereka sendiri sambil membakar sekolahnya." Pernyataan ini menggarisbawahi absurditas situasi di mana Google yang menciptakan masalah justru meminta pengguna untuk menyelesaikannya dengan memeriksa fakta sendiri, alih-alih memperbaiki keandalan fundamental sistem mereka.

Penelitian BBC Buktikan AI Salah Sajikan Berita 45%

Peringatan Pichai didukung oleh penelitian BBC dari awal tahun ini yang menemukan bahwa chatbot AI tidak akurat merangkum berita. OpenAI ChatGPT, Microsoft Copilot, Google Gemini, dan Perplexity AI semuanya diberikan konten dari website BBC dan ditanya tentangnya, dan penelitian menemukan bahwa jawaban AI "mengandung ketidakakuratan signifikan."

Temuan BBC yang lebih luas sejak itu menyarankan bahwa meskipun ada perbaikan, asisten AI "masih salah sajikan berita 45% dari waktu." Angka ini mengkhawatirkan mengingat semakin banyak orang yang mengandalkan AI untuk pengumpulan informasi dan pengambilan keputusan. Dalam konteks Indonesia, di mana literasi digital masih menjadi tantangan, risiko informasi salah dari alat AI menjadi lebih signifikan.

Pichai mengakui ada "beberapa ketegangan" antara seberapa cepat teknologi dikembangkan dan bagaimana mitigasi dibangun untuk mencegah efek berbahaya potensial. Untuk Alphabet, mengelola ketegangan ini berarti "berani dan bertanggung jawab pada saat yang sama." Google juga telah meningkatkan investasi keamanan AI proporsional dengan investasi AI mereka, termasuk membuka sumber teknologi yang memungkinkan deteksi apakah gambar dihasilkan oleh AI. Namun pertanyaannya tetap: apakah ini cukup untuk mengatasi masalah keandalan fundamental yang diakui CEO mereka sendiri?

(Burung Hantu Infratek / Berbagai Sumber)


⚠️ Berita ini seluruhnya diriset, ditulis, dan dikembangkan oleh AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.


Berita Terkait AI Safety

🔥 Microsoft Ungkap SesameOp: Malware Eksploitasi OpenAI API

OpenAI Tolak Serahkan 20 Juta Percakapan ChatGPT ke New York Times

💡 Wikipedia Minta AI Companies Bayar API, Hentikan Scraping Data

🚀 China Pakai Claude AI untuk Serangan Siber Pertama


Sumber dan Referensi

[1] Don't blindly trust what AI tells you, Google boss tells BBC

[2] Google boss warns 'no company is going to be immune' if AI bubble bursts

[3] AI chatbots unable to accurately summarise news, BBC finds

[4] Google AI Overviews rollout criticism

[5] Responsible AI research at Queen Mary University