Huawei Didik Ulang DeepSeek dengan Chip Sendiri Biar Tidak Berani Lawan Beijing

Huawei menggunakan 1000 chip Ascend AI miliknya untuk menciptakan versi DeepSeek R1 yang telah disensor agar tidak menghasilkan konten yang dapat mengganggu pemerintah Beijing. Model yang dijuluki DeepSeek-R1-Safe ini diklaim "hampir 100% sukses" mencegah diskusi topik sensitif secara politik dan lebih tahan terhadap jailbreaking. Universitas Zhejiang berhasil mencapai tingkat keberhasilan ini hanya dengan penurunan performa 1% dibanding DeepSeek R1 original, menunjukkan kemampuan China mengontrol AI dengan teknologi domestiknya sendiri.
China Ciptakan AI "Jinak" dengan Teknologi Domestik
Huawei minggu lalu mengungkapkan bahwa Universitas Zhejiang menggunakan akselerator Ascend 1000 miliknya untuk menciptakan versi DeepSeek R1 yang telah dimodifikasi agar menghasilkan respons yang sesuai dengan preferensi pemerintah China. Model hasil training ulang ini, yang diberi nama DeepSeek-R1-Safe, menandai langkah signifikan China dalam mengontrol narrative AI menggunakan silicon domestik.
Universitas tersebut menjelaskan bagaimana mereka menggunakan chip Huawei untuk membangun post-training framework yang mengubah model DeepSeek agar mencapai "tingkat keberhasilan hampir 100 persen terhadap 14 ancaman jahat umum, termasuk ujaran beracun dan berbahaya, konten sensitif politik, dan hasutan untuk perilaku ilegal." Model yang telah dilatih ulang ini juga lebih resisten terhadap upaya jailbreaking.
Yang mengejutkan, Universitas Zhejiang berhasil mencapai hasil tersebut hanya dengan penurunan performa 1% dibandingkan dengan DeepSeek R1 original. Hal ini menunjukkan kemampuan teknis yang impressive dalam fine-tuning AI models untuk keperluan censorship tanpa mengorbankan capabilities secara signifikan.
Para pengembang aplikasi AI dan Software Developer AI kini harus memahami bahwa landscape AI global semakin terfragmentasi berdasarkan nilai-nilai geopolitik, di mana model yang sama dapat memiliki behavior yang sangat berbeda tergantung pada training yang diberikan.
Keunggulan Teknis Huawei dalam AI Censorship
Huawei dan Universitas Zhejiang juga bangga telah mengungguli model Qwen milik Alibaba Cloud dalam hal menghasilkan output yang sesuai dengan aturan konten China. Pencapaian ini menunjukkan bahwa chip Ascend 1000 Huawei tidak hanya mampu bersaing dengan teknologi asing dalam hal performa, tetapi juga memberikan kontrol yang lebih besar dalam content moderation.
Regulator China telah mewajibkan model AI domestik dan aplikasi yang menggunakannya untuk mencerminkan "nilai-nilai sosialis" China sebelum dirilis ke publik, sesuai dengan kontrol ketat terhadap kebebasan berbicara. Implementasi DeepSeek-R1-Safe menunjukkan bagaimana requirement ini dapat dipenuhi secara teknis menggunakan infrastructure domestik.
Penggunaan 1000 chip Ascend AI dalam proses training ini juga membuktikan kemampuan manufacturing dan scale Huawei dalam mendukung proyek AI skala besar. Ini menjadi sinyal penting bahwa China memiliki capacity untuk mengembangkan dan deploy AI systems yang fully independent dari teknologi Barat.
Framework post-training yang dikembangkan dapat menjadi template untuk model AI China lainnya, menciptakan standardisasi dalam censorship approach yang konsisten dengan kebijakan pemerintah.
Implikasi Global AI Sovereignty
Pengembangan DeepSeek-R1-Safe menggunakan teknologi Huawei menunjukkan strategi China dalam membangun AI sovereignty yang tidak bergantung pada hardware atau software asing. Hal ini sejalan dengan kebijakan teknologi yang menekankan pengembangan self-sufficiency di berbagai sektor kritikal.
Bagi komunitas AI global, ini menjadi indikator bahwa fragmentasi teknologi akan semakin intensif. Model AI yang sama dapat memiliki behavior yang sangat berbeda tergantung pada jurisdiction dan training yang diberikan, menciptakan tantangan baru dalam interoperability dan global collaboration.
Para pengembang aplikasi AI internasional harus mempertimbangkan implikasi penggunaan model AI dari China, terutama terkait dengan content filtering dan potential bias yang mungkin tidak aligned dengan nilai-nilai demokratis. Sebaliknya, developer China mendapat akses ke model yang sudah pre-compliant dengan regulasi domestik.
Software Developer AI kini menghadapi realitas baru di mana technical capabilities harus diseimbangkan dengan political compliance, creating new categories of AI models yang disesuaikan dengan specific geopolitical requirements.
Tantangan untuk Ekosistem AI Terbuka
Kemunculan DeepSeek-R1-Safe menimbulkan pertanyaan fundamental tentang masa depan open-source AI development. Jika model open-source dapat dengan mudah dimodifikasi untuk keperluan censorship, apakah prinsip transparensi dan universal access masih dapat dipertahankan?
Hal ini juga menciptakan dilema bagi perusahaan teknologi global yang beroperasi di China. Mereka mungkin perlu mengembangkan versi berbeda dari AI applications mereka untuk comply dengan requirement content filtering yang semakin ketat.
Untuk research community, ini menunjukkan pentingnya developing robust evaluation methods untuk mendeteksi bias dan censorship dalam AI models. Tool dan metodologi untuk auditing AI behavior akan menjadi semakin kritikal dalam maintaining trust dan transparency.
(Burung Hantu Infratek / Berbagai Sumber)
Berita ini 100% diriset, ditulis dan dikembangkan oleh AI internal Burung Hantu Infratek. Bisa jadi terdapat kesalahan pada data aktual.
Sumber dan Referensi:
[1] Huawei used its own silicon to re-educate DeepSeek so its output won't bother Beijing
[2] China's Huawei co-develops DeepSeek model, improves censoring
[3] Huawei says DeepSeek-R1-Safe, which was trained on 1,000 of its Ascend AI chips
[4] DeepSeek Model 'Nearly 100% Successful' at Avoiding Controversial Topics
[5] DeepSeek's updated R1 AI model is more censored, test finds
