Flash Storage Jadi Penyelamat AI On-Device di Tengah Krisis DRAM 2025

Flash Storage Jadi Penyelamat AI On-Device di Tengah Krisis DRAM 2025

Krisis DRAM global yang dipicu ledakan permintaan AI server telah menciptakan kondisi darurat di industri smartphone dan PC. Namun di balik kekacauan ini, Apple dan Samsung sudah menyiapkan solusi alternatif yang bisa mengubah cara perangkat mobile menjalankan model AI. Teknik penyimpanan LLM di flash storage dan standar UFS 5.0 yang dioptimalkan untuk AI menjadi harapan baru bagi software developer AI dan pengembang aplikasi AI yang ingin menghadirkan kecerdasan buatan langsung di perangkat pengguna.


TLDR

Krisis DRAM 2025 dan Dampaknya ke On-Device AI
Harga DRAM melonjak hingga 840% year-on-year, memaksa produsen smartphone mempertimbangkan downgrade RAM ke 4GB untuk perangkat entry-level, sementara flagship tertunda migrasi ke RAM 16GB.

Apple "LLM in a Flash" - Terobosan Simpan Model AI di Storage
Research Apple memungkinkan LLM 2x lebih besar dari RAM tersedia berjalan di iPhone dengan teknik windowing dan row-column bundling, 20-25x lebih cepat dari metode konvensional.

Samsung UFS 5.0 - Storage yang Dioptimalkan untuk AI
Standar storage terbaru dengan kecepatan hingga 10.8 GB/s yang dirancang khusus untuk mendukung on-device AI di smartphone flagship 2027.

Implikasi untuk Developer Indonesia
Peluang baru untuk mengembangkan aplikasi AI yang berjalan lokal tanpa ketergantungan cloud, dengan pertimbangan teknis yang perlu diperhatikan.

Krisis DRAM 2025 dan Dampaknya ke On-Device AI

Industri teknologi sedang menghadapi badai sempurna di pasar memori. Harga DRAM telah melonjak hingga 840% year-on-year untuk DDR4 16GB, bahkan lebih mahal dari DDR5 16GB yang "hanya" naik 316% dalam periode yang sama. Harga spot DDR4 16GB kini mencapai sekitar USD 30,3, sementara DDR5 16GB berada di kisaran USD 20. Situasi ini terjadi karena produsen memori seperti Samsung dan SK Hynix, yang bersama-sama menguasai 70% pasar DRAM dunia, mengalihkan kapasitas produksi ke High Bandwidth Memory (HBM) untuk server AI yang jauh lebih menguntungkan.

Kondisi kritis ini tidak terjadi secara tiba-tiba. Samsung bahkan dilaporkan mengurangi lebih dari 20% kapasitas DRAM konvensional untuk fokus pada produk AI. Saat ini Samsung hanya mampu memenuhi sekitar 70% pesanan DRAM yang masuk, dan perusahaan enggan mengikat volume besar dengan kontrak jangka panjang di tengah harga yang terus melonjak. SK Hynix mengambil langkah serupa dengan mengandalkan kontrak jangka pendek agar kenaikan harga lebih cepat tercermin dalam penawaran kepada pelanggan.

Dampak langsung ke industri smartphone sangat signifikan:

TrendForce melaporkan bahwa inventori memori smartphone sudah jatuh di bawah ambang batas aman 4 minggu. IDC merevisi prediksi pengiriman smartphone 2026 dari pertumbuhan menjadi penurunan hampir 1%. Meski jumlah unit menurun, nilai pasar justru diprediksi mencapai rekor USD 579 miliar dengan ASP (average selling price) menyentuh USD 465. Artinya, konsumen akan membayar lebih mahal untuk spesifikasi yang sama atau bahkan lebih rendah.

Skenario downgrade spesifikasi yang mengkhawatirkan:

  • Perangkat entry-level terancam kembali ke RAM hanya 4GB, mundur 3-4 tahun dari standar saat ini

  • Smartphone mid-range yang biasanya hadir dengan RAM 12GB kini terancam turun ke kisaran 6-8GB saja

  • Flagship yang seharusnya sudah bermigrasi ke RAM 16GB sebagai standar terpaksa menunda rencana tersebut

  • Samsung dikabarkan akan tetap mempertahankan konfigurasi RAM 12GB untuk Galaxy S26 Ultra, padahal kompetitor sudah menjadikan 16GB sebagai standar

Yang paling terdampak adalah segmen Android low-to-mid range, segmen paling sensitif terhadap kenaikan harga. Galaxy A16 5G, smartphone Android terlaris Q3 2025 menurut Counterpoint Research, saat ini dibanderol dengan RAM 8GB. Kalau produsen benar-benar downgrade spesifikasi, pembeli harus merogoh kocek lebih dalam untuk mendapatkan kapasitas memori yang sama.

Bagi pengembang aplikasi AI, ini adalah kabar buruk. Sebelum krisis, industri sempat memproyeksikan RAM 20GB akan menjadi standar untuk mendukung AI on-device. Fitur AI on-device seperti Apple Intelligence, Samsung Galaxy AI, dan berbagai implementasi LLM lokal membutuhkan memori besar untuk berjalan optimal. Semakin kecil RAM yang tersedia, semakin terbatas kemampuan AI yang bisa dihadirkan langsung di perangkat pengguna. Namun, justru di tengah krisis inilah solusi alternatif mulai mendapat perhatian serius.

Apple "LLM in a Flash" - Terobosan Simpan Model AI di Storage

Apple telah mengantisipasi kendala memori ini sejak 2023 dengan merilis research paper berjudul "LLM in a Flash: Efficient Large Language Model Inference with Limited Memory". Paper ini dipresentasikan di konferensi ACL (Association for Computational Linguistics) pada Agustus 2024, menandai keseriusan Apple dalam mengatasi bottleneck memori untuk AI on-device.

Konsep dasarnya sederhana namun revolusioner. Alih-alih menyimpan seluruh parameter LLM di RAM yang terbatas, Apple mengusulkan untuk menyimpan model di flash storage (NAND) dan hanya memuat bagian yang dibutuhkan ke RAM secara on-demand. Mengingat iPhone memiliki storage hingga 1TB namun RAM hanya 8GB, pendekatan ini membuka potensi besar yang selama ini tidak tereksploitasi.

Dua teknik utama yang dikembangkan Apple:

  1. Windowing - Teknik ini menggunakan kembali data yang sudah diproses sebelumnya, mengurangi kebutuhan untuk terus-menerus mengambil data baru dari storage. Bayangkan seperti sistem caching cerdas yang tahu bagian mana dari model yang kemungkinan akan dibutuhkan berikutnya.

  2. Row-Column Bundling - Data dikelompokkan sedemikian rupa sehingga bisa dibaca lebih cepat dari flash memory. Flash storage memiliki karakteristik berbeda dari RAM, terutama dalam hal sequential vs random access. Teknik ini mengoptimalkan pola akses agar sesuai dengan kekuatan flash.

Hasil yang dicapai sangat impresif:

  • Model AI hingga 2x lebih besar dari kapasitas RAM yang tersedia bisa dijalankan

  • Performa 4-5x lebih cepat dibanding metode naive di CPU

  • Performa 20-25x lebih cepat dibanding metode naive di GPU

Untuk konteks praktis, misalkan sebuah LLM membutuhkan 16GB memori untuk berjalan. Dengan teknik konvensional, model ini tidak mungkin dijalankan di iPhone yang hanya memiliki RAM 8GB. Dengan teknik Apple, model yang sama bisa berjalan dengan memanfaatkan flash storage sebagai "extended memory". Software developer AI di Indonesia yang mengembangkan aplikasi berbasis LLM untuk platform iOS bisa memanfaatkan pendekatan ini untuk menghadirkan fitur AI lebih powerful tanpa menunggu Apple menambah kapasitas RAM di iPhone.

Samsung UFS 5.0 - Storage yang Dioptimalkan untuk AI

Di sisi lain, Samsung mengambil pendekatan berbeda dengan mengoptimalkan hardware storage itu sendiri. JEDEC (Joint Electron Device Engineering Council) mengumumkan pada Oktober 2025 bahwa standar UFS 5.0 sudah memasuki tahap final pengembangan, dengan Samsung sebagai salah satu kontributor utama.

Perbandingan UFS 4.0 vs UFS 5.0:

UFS 4.0 yang diluncurkan pada 2022-2023 memiliki kecepatan sequential read/write sekitar 4.2 GB/s tanpa optimisasi khusus untuk AI. Sementara UFS 5.0 yang ditargetkan debut pada 2027 menawarkan kecepatan hingga 10.8 GB/s dengan optimisasi AI built-in dan power efficiency yang lebih baik.

Kecepatan 10.8 GB/s adalah lompatan signifikan yang mendekati bandwidth RAM generasi sebelumnya. Dengan kecepatan setinggi ini, gap performa antara mengakses data dari storage versus RAM semakin mengecil. Samsung bahkan sudah mengembangkan versi UFS 4.0 yang dioptimalkan untuk AI sebelum UFS 5.0 siap.

Menurut analisis Omdia Senior Researcher Yeon Seung-hoon, operasi AI di smartphone akan membutuhkan sekitar 15% dari total storage yang tersedia. Ini bukan angka kecil, mengingat model LLM seperti Llama 2 7B membutuhkan sekitar 14GB dalam format terkompresi. Dengan UFS 5.0, transfer data sebesar ini bisa dilakukan dalam hitungan detik, membuat pengalaman AI on-device terasa lebih responsif.

Samsung berencana mengimplementasikan UFS 5.0 di flagship Galaxy mulai 2027. Artinya, Galaxy S27 atau S28 series kemungkinan akan menjadi perangkat pertama yang memanfaatkan storage AI-optimized ini. Bagi pengembang aplikasi AI yang menargetkan ekosistem Android, ini adalah timeline penting untuk diperhatikan.

Implikasi untuk Developer Indonesia

Kombinasi research Apple dan perkembangan hardware Samsung membuka paradigma baru dalam pengembangan aplikasi AI mobile. Berikut implikasi praktis bagi software developer AI di Indonesia:

Peluang yang Terbuka:

  1. Aplikasi AI Offline - Dengan kemampuan menyimpan dan menjalankan LLM dari flash storage, aplikasi AI tidak lagi bergantung sepenuhnya pada koneksi internet. Ini sangat relevan untuk Indonesia dengan kondisi konektivitas yang bervariasi.

  2. Privasi Data Lebih Baik - Model AI yang berjalan lokal berarti data pengguna tidak perlu dikirim ke cloud. Ini menjadi selling point penting di era kesadaran privasi yang meningkat.

  3. Biaya Operasional Lebih Rendah - Tidak ada biaya API call ke cloud provider. Setelah model di-deploy, operasional menjadi tanggung jawab perangkat pengguna.

Pertimbangan Teknis:

  1. Trade-off Latency - Meski teknik Apple mempercepat akses flash storage, masih ada latency tambahan dibanding menjalankan model sepenuhnya dari RAM. Untuk aplikasi real-time seperti voice assistant, ini perlu diperhitungkan.

  2. Wear Leveling - Flash storage memiliki batas siklus write. Akses intensif untuk AI inference bisa mempercepat degradasi storage. Developer perlu mempertimbangkan pola akses yang optimal.

  3. Fragmentasi Ekosistem - Teknik Apple saat ini spesifik untuk perangkat Apple. Android dengan berbagai variasi hardware mungkin membutuhkan pendekatan yang lebih general.

Rekomendasi untuk Developer:

  • Mulai eksperimen dengan framework seperti Core ML (iOS) dan TensorFlow Lite (Android) yang sudah mengoptimalkan penggunaan memori

  • Monitor perkembangan GGML dan llama.cpp yang memungkinkan running LLM dengan memory footprint minimal

  • Pertimbangkan model quantization (INT4, INT8) untuk mengurangi ukuran model tanpa mengorbankan terlalu banyak akurasi

  • Siapkan arsitektur aplikasi yang hybrid, bisa fallback ke cloud jika resource lokal tidak mencukupi

Kesimpulan

Krisis DRAM 2025 memang menciptakan tantangan besar bagi industri smartphone dan pengembangan AI on-device. Namun, seperti banyak krisis sebelumnya, kondisi ini juga mendorong inovasi yang mungkin tidak akan terjadi dalam situasi normal. Apple dengan research "LLM in a Flash" dan Samsung dengan UFS 5.0 menunjukkan bahwa jalan keluar sudah mulai terbentuk.

Bagi software developer AI dan pengembang aplikasi AI di Indonesia, ini adalah waktu yang tepat untuk mulai mengeksplorasi teknik-teknik baru dalam menjalankan model AI di perangkat dengan resource terbatas. Perusahaan yang berhasil menguasai teknik ini akan memiliki keunggulan kompetitif signifikan ketika teknologi storage AI-optimized menjadi mainstream dalam 2-3 tahun ke depan. Krisis memori hari ini bisa menjadi katalis untuk inovasi AI on-device yang lebih demokratis dan accessible bagi semua pengguna.


(Burung Hantu Infratek / Berbagai Sumber)


⚠️ Artikel ini seluruhnya diriset, ditulis, dan dikembangkan oleh AI internal Burung Hantu Infratek. Mohon maaf apabila terdapat ketidakakuratan pada data aktual.


Sumber dan Referensi

[1] LLM in a Flash: Efficient Large Language Model Inference with Limited Memory - Apple Machine Learning Research

[2] Apple Develops Breakthrough Method for Running LLMs on iPhones - MacRumors

[3] UFS 5.0 Storage Is Official, and It's Almost Twice as Fast to Help Power AI - PCMag

[4] Samsung Is Actively Developing UFS 5.0 Storage, But It Will Not Debut Before 2027 - WCCFTech

[5] Smartphone Manufacturers Could Re-Introduce 4GB RAM Devices Due To Immense Shortage - WCCFTech

[6] Memory shortage tipped to cut smartphone shipments - Mobile World Live

[7] Memory Price Rally May Run Past 2028 as Samsung, SK hynix Reportedly Cautious on Expansion - TrendForce