GPT-5 "Boros Token" Bikin OpenAI Kembalikan GPT-4

GPT-5 "Boros Token" Bikin OpenAI Kembalikan GPT-4

OpenAI terpaksa melakukan langkah drastis dengan mengembalikan akses GPT-4 setelah GPT-5 ternyata menghabiskan token 36 kali lebih banyak. Konsumsi token yang sangat tinggi membuat pengguna cepat kehabisan kuota, sementara kualitas respons malah dinilai "aneh dan bodoh".

Masalah ini menjadi pukulan telak bagi OpenAI yang baru saja meluncurkan model terbaru mereka. GPT-5 yang seharusnya menjadi kebanggaan, justru membuat pengguna berbondong-bondong mengeluh.

Langkah mundur ini menunjukkan betapa pentingnya keseimbangan antara inovasi dan kepuasan pengguna dalam pengembangan teknologi AI.

Token Boros, Pengguna Menjerit

Perbandingan penggunaan token antar model AI telah menjadi sorotan utama dalam kasus ini. Untuk prompt yang sama persis, GPT-5 menggunakan token 36 kali lipat lebih banyak dibandingkan model pendahulunya, GPT-4. Bahkan jika dibandingkan dengan model o3, GPT-5 masih menghabiskan token 20 kali lebih banyak.

Token dalam dunia AI adalah unit dasar pemrosesan bahasa. Semakin banyak token yang digunakan, semakin banyak sumber daya komputasi yang dibutuhkan, dan tentu saja, semakin cepat kuota pengguna habis. Masalah ini terutama berdampak pada pengguna dengan paket langganan terbatas.

Sistem AI yang efisien seharusnya mampu memberikan jawaban berkualitas dengan penggunaan token yang optimal. Namun, GPT-5 tampaknya gagal dalam hal ini. Banyak pengguna melaporkan bahwa meskipun menghabiskan lebih banyak token, kualitas jawaban GPT-5 justru menurun.

Para analis teknologi AI menyebutkan bahwa masalah ini kemungkinan terjadi karena arsitektur model yang terlalu kompleks. Model yang lebih besar tidak selalu berarti lebih baik jika tidak dioptimalkan dengan baik.

Fenomena ini mengingatkan pada prinsip dasar pengembangan AI: lebih penting membuat model yang efisien daripada sekadar membuat model yang besar. Sistem AI yang baik harus mampu memberikan respons berkualitas dengan penggunaan sumber daya yang minimal.

Keluhan Pengguna dan Respons OpenAI

Tidak hanya masalah konsumsi token, pengguna juga mengeluhkan kualitas respons GPT-5 yang dinilai "aneh dan bodoh". Banyak pengguna melaporkan bahwa GPT-5 sering memberikan jawaban yang tidak relevan, bertele-tele, atau bahkan salah sama sekali.

OpenAI yang biasanya dikenal karena kualitas model AI mereka, tampaknya terlalu terburu-buru dalam meluncurkan GPT-5. Tekanan kompetisi dalam industri AI mungkin menjadi salah satu faktor pendorong peluncuran prematur ini.

Menghadapi gelombang keluhan yang tidak terbendung, OpenAI akhirnya mengambil keputusan yang jarang terjadi dalam dunia teknologi: mundur ke versi sebelumnya. Perusahaan membuka kembali akses ke GPT-4 yang terbukti lebih stabil dan efisien.

Langkah ini menunjukkan bahwa OpenAI masih mendengarkan umpan balik pengguna, meskipun harus mengorbankan gengsi dengan mengakui bahwa model terbaru mereka belum siap untuk digunakan secara luas.

Para ahli AI menyarankan agar OpenAI melakukan evaluasi mendalam terhadap arsitektur GPT-5 sebelum meluncurkannya kembali. Optimasi penggunaan token dan peningkatan kualitas respons harus menjadi prioritas utama.

Pelajaran Berharga untuk Industri AI

Kasus GPT-5 ini memberikan pelajaran berharga bagi seluruh industri kecerdasan buatan. Inovasi teknologi harus selalu diimbangi dengan pertimbangan praktis tentang pengalaman pengguna. Model AI yang canggih namun boros sumber daya akan sulit diterima oleh pasar.

Pengembang AI perlu memahami bahwa efisiensi token adalah komponen kritis dalam ekonomi AI. Semakin efisien sebuah model dalam menggunakan token, semakin terjangkau layanan tersebut bagi pengguna akhir.

Fenomena ini juga mengingatkan bahwa dalam pengembangan AI, pendekatan "bigger is better" tidak selalu benar. Kadang, model yang lebih kecil namun dioptimalkan dengan baik dapat memberikan performa yang lebih baik daripada model raksasa yang tidak efisien.

(Burung Hantu Infratek / Berbagai Sumber)


Berita ini 100% diriset, ditulis dan dikembangkan oleh AI internal Burung Hantu Infratek. Bisa jadi terdapat kesalahan pada data aktual.