Claude Ungkap Bug Infrastruktur Merusak Kualitas AI

Anthropic mengakui tiga bug infrastruktur kritikal yang merusak kualitas respons Claude selama Agustus-September 2025. Masalah routing, korupsi output, dan kompilasi XLA:TPU memengaruhi jutaan pengguna artificial intelligence terpopuler kedua dunia. Transparansi teknis ini menandai komitmen baru industri AI untuk akuntabilitas publik.
Tiga Bug Infrastruktur Menghantam Claude Bersamaan
Anthropic resmi merilis postmortem komprehensif yang mengungkap tiga bug infrastruktur terpisah yang secara bersamaan mendegradasi kualitas respons Claude antara Agustus hingga awal September 2025. Ketiga masalah ini menciptakan pengalaman inkonsisten bagi jutaan pengguna yang mengandalkan AI assistant untuk pengembangan software dan aplikasi AI profesional.
Bug pertama terjadi pada 5 Agustus ketika sebagian request Sonnet 4 salah diarahkan ke server yang dikonfigurasi untuk context window 1 juta token yang akan datang. Awalnya hanya memengaruhi 0.8% request, namun perubahan load balancing pada 29 Agustus memperburuk situasi hingga 16% request terpengaruh pada jam terparah 31 Agustus.
Masalah kedua muncul 25 Agustus berupa konfigurasi salah pada server TPU Claude API yang menyebabkan error selama token generation. Bug ini menghasilkan karakter Thailand atau Cina secara acak di tengah respons bahasa Inggris, dan syntax error yang jelas pada kode program - masalah krusial bagi software developer AI yang mengandalkan output berkualitas tinggi.
Bug ketiga melibatkan kompilasi XLA:TPU yang dipicu oleh deployment kode baru pada 25 Agustus untuk meningkatkan token selection. Masalah compiler ini terkonfirmasi memengaruhi Haiku 3.5 dan diduga berdampak pada subset Sonnet 4 dan Opus 3, menciptakan hasil yang tidak konsisten untuk pengembang AI yang menggunakan platform tersebut.
Sifat overlapping dari ketiga bug ini membuat diagnosis menjadi sangat menantang, menciptakan laporan yang membingungkan dan kontradiktif dari pengguna yang sebagian mengalami performa normal sementara yang lain menghadapi masalah signifikan.
Dampak Masif pada Ecosystem AI Development
Degradasi kualitas Claude berdampak besar pada ecosystem pengembangan AI global, terutama bagi software developer yang bergantung pada assistant AI untuk coding dan problem-solving. Claude Code users yang membuat request selama periode ini memiliki kemungkinan 30% mengalami setidaknya satu pesan yang dirouting ke server salah, menghasilkan respons berkualitas rendah.
Platform third-party juga terkena imbas dengan Amazon Bedrock mengalami peak misrouted traffic 0.18% untuk semua request Sonnet 4, sementara Google Cloud Vertex AI mengalami dampak lebih minimal di bawah 0.0004%. Meski persentase terlihat kecil, volume absolut pengguna yang terpengaruh tetap signifikan mengingat skala adopsi Claude global.
Sticky routing yang diterapkan Anthropic memperparah situasi karena sekali request dilayani server yang salah, follow-up berikutnya kemungkinan besar juga akan dilayani server yang sama. Hal ini menciptakan pengalaman buruk berkelanjutan bagi pengguna tertentu yang terjebak dalam loop degradasi kualitas.
Bug output corruption khususnya merusak kepercayaan pengembang AI karena menghasilkan karakter acak dan syntax error di code generation - fungsi core yang sangat diandalkan dalam software development modern. Masalah ini memaksa banyak developer beralih sementara ke alternatif lain selama periode perbaikan.
Pelajaran Transparansi untuk Industri AI
Keputusan Anthropic merilis postmortem teknis detail menandai precedent penting dalam industri artificial intelligence. Perusahaan AI umumnya reluctant mengungkap masalah internal, namun Anthropic memilih transparansi penuh dengan menjelaskan root cause, timeline, dan langkah perbaikan untuk setiap bug.
Anthropic menegaskan bahwa mereka tidak pernah mengurangi kualitas model karena demand, waktu, atau server load - degradasi murni disebabkan bug infrastruktur. Klarifikasi ini penting mengingat spekulasi komunitas AI bahwa perusahaan sengaja menurunkan kualitas untuk menghemat resource komputasi.
Incident ini mengekspos gap kritis dalam evaluasi dan monitoring yang seharusnya diidentifikasi lebih awal. Evaluasi benchmark yang dijalankan tidak menangkap degradasi yang dilaporkan pengguna, sebagian karena Claude sering recover dengan baik dari kesalahan terisolasi. Praktik privacy internal juga menciptakan tantangan dalam investigasi karena membatasi akses engineer ke interaksi pengguna.
Sebagai respons, Anthropic mengembangkan evaluasi yang lebih sensitif, menjalankan quality assessment berkelanjutan pada production systems, dan membangun tooling debugging yang lebih cepat tanpa mengorbankan privacy pengguna. Langkah-langkah ini diharapkan mencegah incident serupa dan meningkatkan reliability platform AI untuk software developer dan aplikasi AI masa depan.
(Burung Hantu Infratek / Berbagai Sumber)
Berita ini 100% diriset, ditulis dan dikembangkan oleh AI internal Burung Hantu Infratek. Bisa jadi terdapat kesalahan pada data aktual.
Sumber dan Referensi:
[1] A postmortem of three recent issues
[2] 基礎設施3缺陷影響Claude回應品質,Anthropic完成處置並加強品質檢測
[3] Anthropic confirms technical bugs after weeks of complaints about declining Claude code quality
