Ilmuwan Surrey Tiru Otak Manusia: AI Hemat Energi 1 Juta kWh

Ilmuwan Surrey Tiru Otak Manusia: AI Hemat Energi 1 Juta kWh

University of Surrey menggebrak dunia AI dengan pendekatan revolusioner yang meniru arsitektur jaringan neural otak manusia, menghasilkan performa AI lebih tinggi dengan konsumsi energi drastis lebih rendah. Topographical Sparse Mapping, teknologi baru yang dipublikasikan di jurnal Neurocomputing, memangkas kebutuhan energi pelatihan model AI dari lebih 1 juta kilowatt-hour menjadi jauh lebih efisien tanpa mengorbankan akurasi. Inovasi ini hadir di tengah krisis keberlanjutan industri AI yang terus membengkak konsumsi listriknya, menawarkan solusi yang bisa mengubah fundamental bagaimana kita membangun sistem kecerdasan buatan masa depan.


Arsitektur Otak Manusia Jadi Blueprint AI Masa Depan

Para peneliti di University of Surrey mengambil inspirasi langsung dari cara kerja otak biologis manusia untuk merevolusi arsitektur artificial neural networks. Berbeda dengan pendekatan konvensional yang menghubungkan setiap neuron dengan jutaan neuron lainnya secara masif, Topographical Sparse Mapping meniru pola koneksi otak yang jauh lebih efisien. Setiap neuron hanya terhubung dengan neuron terdekat atau yang memiliki relasi fungsional, persis seperti cara otak manusia mengorganisir informasi.

Dr Roman Bauer, senior lecturer yang memimpin riset ini, menegaskan bahwa sistem cerdas bisa dibangun jauh lebih efisien dengan memotong kebutuhan energi tanpa mengorbankan performa. "Our work shows that intelligent systems can be built far more efficiently, cutting energy demands without sacrificing performance," ujar Bauer. Pernyataan ini langsung menyasar isu terbesar industri AI saat ini, yaitu konsumsi energi yang tidak berkelanjutan.

Metode ini mengeliminasi kebutuhan untuk koneksi neural yang tidak perlu dalam jumlah sangat besar. Model AI konvensional seperti GPT-4 atau model generative AI lainnya membutuhkan miliaran parameter dengan koneksi antar neuron yang sangat padat. Topographical Sparse Mapping memangkas kompleksitas ini dengan pendekatan yang terinspirasi langsung dari efisiensi biologis otak manusia yang hanya menggunakan sekitar 20 watt daya, setara dengan lampu LED kecil.

Bagi software developer AI dan pengembang aplikasi AI di Indonesia, pendekatan ini membuka peluang untuk membangun model AI yang powerful tanpa harus bergantung pada infrastruktur cloud mahal atau GPU farming yang menguras listrik. Efisiensi energi berarti biaya operasional lebih rendah dan aksesibilitas lebih tinggi untuk startup dan perusahaan menengah.

Enhanced Pruning Process Tiru Cara Belajar Otak Bayi

Tim peneliti tidak berhenti di Topographical Sparse Mapping saja. Mereka mengembangkan versi lebih canggih bernama Enhanced Topographical Sparse Mapping yang memperkenalkan proses "pruning" biologis selama pelatihan model. Pruning ini meniru cara otak manusia secara bertahap merapikan dan mengoptimalkan koneksi neuralnya seiring proses pembelajaran, mirip seperti bagaimana otak bayi yang lahir dengan triliunan koneksi neural kemudian memangkas koneksi yang tidak efisien selama masa perkembangan.

Proses pruning ini terjadi secara dinamis selama fase training, bukan setelah model selesai dilatih seperti teknik pruning konvensional. Model AI belajar untuk "melupakan" koneksi yang tidak produktif dan memperkuat jalur neural yang benar-benar penting untuk tugas spesifik. Hasilnya adalah jaringan neural yang jauh lebih ramping namun tetap mempertahankan atau bahkan meningkatkan akurasi prediksi.

Dr Bauer menyoroti bahwa melatih banyak model AI populer saat ini bisa mengonsumsi lebih dari satu juta kilowatt-hour listrik. "Training many of today's popular large AI models can consume over a million kilowatt-hours of electricity. That simply isn't sustainable at the rate AI continues to grow," tambahnya. Angka ini setara dengan konsumsi listrik rumah tangga Amerika Serikat selama hampir 100 tahun, hanya untuk melatih satu model AI besar.

Konsumsi energi sebesar ini bukan hanya masalah biaya, tapi juga ancaman lingkungan serius. Data center AI global diperkirakan akan mengonsumsi 8 persen dari total listrik dunia pada 2030 jika tren saat ini berlanjut tanpa inovasi efisiensi seperti yang dikembangkan tim Surrey ini. Enhanced pruning process menawarkan jalan keluar dari spiral konsumsi energi yang tidak terkendali ini.

Neuromorphic Computing dan Masa Depan AI yang Berkelanjutan

Tim peneliti juga mengeksplorasi aplikasi pendekatan ini untuk neuromorphic computers, yaitu komputer yang dirancang dengan arsitektur yang meniru struktur dan fungsi otak manusia secara fisik. Neuromorphic computing adalah frontier berikutnya dalam komputasi AI, menjanjikan efisiensi energi yang jauh melampaui arsitektur von Neumann tradisional yang digunakan hampir semua komputer modern.

Pendekatan Topographical Sparse Mapping sangat cocok untuk neuromorphic hardware karena secara natural mengikuti prinsip lokalitas dan sparse connectivity yang menjadi kekuatan utama chip neuromorphic seperti Intel Loihi atau IBM TrueNorth. Kombinasi antara algoritma yang efisien dengan hardware yang dirancang khusus bisa menghasilkan sistem AI yang konsumsi dayanya puluhan hingga ratusan kali lebih rendah dibanding GPU konvensional.

Penelitian Surrey ini menunjukkan bahwa masa depan AI bukan tentang membuat model semakin besar dengan parameter triliunan, tapi tentang membuat model semakin cerdas dalam menggunakan sumber daya yang ada. Ini adalah paradigm shift fundamental dari "bigger is better" menuju "smarter is better". Bagi industri AI global yang sedang menghadapi tekanan regulasi emisi karbon dan biaya energi yang melonjak, inovasi seperti ini bukan lagi pilihan tapi kebutuhan.

Untuk Indonesia yang sedang membangun ekosistem AI nasional, pendekatan efisien seperti Topographical Sparse Mapping bisa menjadi competitive advantage. Dengan infrastruktur listrik yang masih terbatas dibanding negara maju, mengadopsi teknologi AI yang hemat energi memungkinkan software developer AI lokal untuk berkompetisi di level global tanpa harus membakar anggaran untuk infrastruktur komputasi. Ini juga sejalan dengan komitmen Indonesia terhadap pengurangan emisi karbon dan pembangunan berkelanjutan.

(Burung Hantu Infratek / Berbagai Sumber)


⚠️ Berita ini seluruhnya diriset, ditulis, dan dikembangkan oleh AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.


Berita Terkait AI dan Neural Networks

🤖 Samsung Borong 50 Ribu GPU Nvidia untuk AI Megafactory

💻 China Kembangkan Chip Analog 1000x Lebih Cepat

Nvidia Suplai 260 Ribu GPU ke Korea

🧠 Acer Luncurkan Altos BrainSphere GB10 F1


Sumber dan Referensi

[1] Mimicking the brain can improve AI performance - BBC News

[2] University of Surrey

[3] Neurocomputing Journal - ScienceDirect

[4] What is Neuromorphic Computing - Intel

[5] The growing energy footprint of artificial intelligence - Nature