OpenAI jalin kemitraan dengan Cerebras: Hadirkan inferensi super cepat melalui sistem wafer-scale.
OpenAI resmi mengumumkan kemitraan jangka panjang dengan produsen chip Cerebras untuk mengintegrasikan kapasitas komputasi sebesar 750 megawatt (MW) ke dalam infrastruktur mereka.
Kerja sama senilai lebih dari $10 miliar ini bertujuan untuk mempercepat waktu respons AI secara signifikan, memberikan pengalaman interaksi yang lebih nyata dan instan bagi pengguna.
Berikut adalah poin-poin utama mengenai kemitraan ini:
- Peningkatan kecepatan drastis: Sistem Cerebras diklaim mampu memberikan respons hingga 15 kali lebih cepat dibandingkan sistem berbasis GPU tradisional.
- Teknologi Wafer-Scale: Menggunakan prosesor berukuran raksasa yang menyatukan memori dan komputasi dalam satu chip untuk menghilangkan hambatan transfer data (bottleneck).
- Fokus pada real-time AI: Teknologi ini akan dioptimalkan untuk tugas-tugas yang membutuhkan kecepatan tinggi, seperti asisten suara, pembuatan kode (coding), dan interaksi agen AI.
- Implementasi bertahap: Kapasitas komputasi baru ini akan mulai dioperasikan pada awal 2026 dan akan terus dikembangkan hingga tahun 2028.
- Diversifikasi infrastruktur: Langkah ini merupakan bagian dari strategi OpenAI untuk tidak bergantung pada satu jenis perangkat keras saja dalam skala global.
Mengenai visi di balik kolaborasi ini, Andrew Feldman, CEO dan pendiri Cerebras, memberikan komentarnya:
"Sama seperti pita lebar (broadband) yang mengubah internet, inferensi waktu nyata akan mengubah AI, memungkinkan cara-cara baru untuk membangun dan berinteraksi dengan model AI."