Intel Kembangkan GPU AI Hemat Daya Tantang Qualcomm di Pasar Inference

Intel Kembangkan GPU AI Hemat Daya Tantang Qualcomm di Pasar Inference

Intel secara diam-diam kembangkan GPU AI bertenaga rendah untuk server bersama Jaguar Shores. Target utama pasar inference workloads, mirip strategi Qualcomm Cloud AI 100. Kemungkinan berbasis Battlemage BMG-G31 dengan VRAM 24GB. Intel cari celah kompetitif di segmen yang tak dikuasai NVIDIA-AMD.


Intel Eksplorasi Segmen AI Baru dengan Pendekatan Berbeda

Intel tampaknya belum menyerah dalam industri AI, meskipun perusahaan memiliki portofolio komputasi yang terbatas dibandingkan beberapa pesaingnya. Intel telah mengandalkan lineup Gaudi selama beberapa tahun, tetapi berdasarkan apa yang telah kita lihat hingga sekarang, sedikit kemajuan telah dibuat dalam adopsi pasar.

Laporan dari CRN mengungkapkan bahwa Intel berencana merilis chip AI dengan konsumsi daya rendah bersama Jaguar Shores, yang kemungkinan akan menargetkan pasar inference. Selain Jaguar Shores, perusahaan memiliki desain GPU tambahan yang belum diumumkan dengan persyaratan daya yang lebih rendah untuk server dalam peta jalannya yang dapat tiba tahun depan di beberapa titik, menurut sumber yang akrab dengan rencana perusahaan.

Bagi pengembang perangkat lunak kecerdasan buatan dan pembuat aplikasi pintar, kehadiran alternatif hardware AI yang hemat daya dapat membuka peluang deployment yang lebih luas dengan biaya operasional yang lebih efisien.

Target Pasar Inference yang Strategis

Laporan tersebut belum mengungkap spesifik produk baru Intel, selain fakta bahwa ini adalah desain GPU yang belum diumumkan yang akan debut bersama JGS (Jaguar Shores). Tentu saja, chip seperti itu kemungkinan akan ditargetkan untuk beban kerja inference, karena Jaguar Shores akan menjadi rilis high-end yang ditujukan untuk training oleh perusahaan, yang juga akan mencapai solusi skala rack.

Strategi ini masuk akal mengingat pasar inference diperkirakan akan tumbuh lebih besar daripada training dalam beberapa tahun ke depan. Sementara NVIDIA dan AMD fokus pada hardware AI high-performance untuk training, Intel mencoba menemukan celah di segmen yang berbeda.

Pendekatan ini mencerminkan realitas bahwa tidak semua aplikasi AI memerlukan daya komputasi maksimal - banyak use case inference dapat dilayani dengan hardware yang lebih efisien dan cost-effective.

Dugaan Berbasis Arsitektur Battlemage

Dugaan terbaik untuk desain 'belum diumumkan' ini adalah SKU berbasis Battlemage yang ditujukan untuk beban kerja Edge AI, dan Intel telah mengungkapkan niat untuk merilis model seperti itu di masa lalu. Team Blue diketahui sedang mengerjakan silikon 'BMG-G31' dan bermaksud mengintegrasikan hingga 24GB VRAM dalam salah satu model; karenanya, ini bisa menjadi salah satu opsi.

Namun, karena chip diperkirakan debut tahun depan, Battlemage bisa menjadi usang saat itu; karenanya, solusi mungkin datang di bawah lineup lain, tetapi saat ini, ini semua spekulasi.

Spesifikasi yang dirumorkan untuk BMG-G31:

  • Hingga 24GB VRAM

  • Target untuk workload professional dan AI inference

  • Arsitektur Xe2 "Battlemage"

  • Fabrikasi dengan process node canggih

Strategi Mirip Qualcomm Cloud AI 100

Tampaknya perangkat berfokus AI 'low-power' mungkin menjadi segmen yang bisa ditarget Intel tahun depan, dan mereka bisa memainkan peran mirip dengan bagaimana kartu inference Cloud AI 100 Qualcomm bekerja, yang bisa dengan mudah di-deploy pada sistem konsumer.

Qualcomm Cloud AI 100 telah membuktikan bahwa ada pasar untuk solusi AI inference yang efisien. Kartu inference ini menawarkan:

  • Performance per watt yang superior

  • Deployment yang mudah di existing infrastructure

  • Cost-effectiveness untuk scale production

  • Fokus khusus pada inference vs training

Intel kemungkinan melihat kesuksesan model ini dan ingin menciptakan alternatif dengan ekosistem x86 yang mereka kuasai.

Dampak untuk Ekosistem Pengembang AI

Strategi low-power AI GPU Intel ini membawa implikasi menarik untuk komunitas pengembang:

Diversifikasi Hardware Options: Lebih banyak pilihan hardware AI dengan focus yang berbeda-beda, dari high-performance training hingga efficient inference.

Cost-Effective Deployment: Hardware AI yang hemat daya dapat menurunkan total cost of ownership untuk deployment aplikasi AI production.

Edge Computing Opportunities: GPU AI dengan power consumption rendah membuka peluang untuk edge computing dan mobile AI applications.

Competitive Pricing: Persaingan di segmen inference dapat mendorong harga yang lebih kompetitif dibandingkan monopoli hardware training.

Tantangan dan Peluang Intel

Intel menghadapi tantangan besar di pasar AI dimana mereka belum memiliki mindshare yang kuat. Namun, fokus pada segment yang berbeda (inference vs training) dan leveraging pada strength ekosistem x86 mereka dapat menjadi strategi yang cerdas.

Keunggulan Intel yang bisa dimanfaatkan:

  • Ekosistem x86 yang matang dan widespread

  • Experience dalam manufacturing dan scale production

  • Software stack yang terintegrasi dengan Intel hardware

  • Partnership dengan major cloud providers dan enterprise customers

Masa Depan Kompetisi AI Hardware

Dengan Intel masuk ke segmen low-power AI inference, lanskap kompetitif menjadi lebih menarik. Alih-alih semua vendor berlomba di high-end training market yang dikuasai NVIDIA, kita melihat diversifikasi strategy:

  • NVIDIA/AMD: Focus pada high-performance training dan flagship inference

  • Intel: Low-power inference dan integration dengan x86 ecosystem

  • Qualcomm: Mobile dan edge inference dengan proven track record

Untuk pengembang aplikasi pintar Indonesia, ini berarti lebih banyak options untuk memilih hardware yang sesuai dengan specific use case dan budget requirements mereka.

Era baru kompetisi AI hardware dimulai dengan pendekatan yang lebih targeted dan specialized, memberikan value lebih baik bagi pengembang yang tidak memerlukan cutting-edge training performance tapi butuh efficient inference capabilities.

(Burung Hantu Infratek / Berbagai Sumber)


Berita ini 100% diriset, ditulis dan dikembangkan oleh AI internal Burung Hantu Infratek. Bisa jadi terdapat kesalahan pada data aktual.


Sumber dan Referensi :

[1] Intel Is Reportedly Developing a "Low-Power" AI GPU Alongside Jaguar Shores

[2] Intel Unveils Arc Pro B60 24 GB & B50 16 GB "Battlemage" GPUs For Pro & AI Workloads

[3] The Qualcomm Cloud AI 100 emerges as the fastest AI inference solution in the world

[4] Intel Jaguar Shores: the company's new AI processor is shown in photos

[5] Intel confirms BMG-G31 "Battlemage" GPU with four variants in MESA update