OpenAI Gandeng Pesaing Nvidia demi AI Lebih Canggih
Ringkasan berita:
- OpenAI menggandeng Cerebras untuk menambah kapasitas komputasi AI hingga 750 MW sampai 2028, agar layanan seperti ChatGPT bisa merespons jauh lebih cepat untuk tugas berat dan kompleks.
- Chip Cerebras dipilih karena menyatukan komputasi, memori, dan bandwidth dalam satu chip raksasa, sehingga mengurangi hambatan pemrosesan dan mempercepat respons AI secara signifikan.
- OpenAI juga bekerja sama dengan Broadcom, AMD, dan Samsung untuk membangun infrastruktur chip, server, dan memori berskala raksasa demi mendukung pertumbuhan dan performa AI ke depan.
- Pengembang chatbot AI ChatGPT, OpenAI, resmi menjalin kerja sama dengan Cerebras untuk memperkuat infrastruktur komputasi kecerdasan buatan (AI).
Lewat kemitraan dengan pembuat chip AI asal Amerika, sekaligus pesaing Nvidia ini, OpenAI akan menambahkan hingga 750 megawatt (MW) kapasitas komputasi AI berlatensi rendah ke dalam platformnya secara bertahap hingga 2028.
Kolaborasi ini bertujuan membuat layanan AI OpenAI, termasuk ChatGPT, bisa merespons jauh lebih cepat. Khususnya untuk tugas-tugas berat seperti menjawab pertanyaan kompleks, menulis kode panjang, menghasilkan gambar, hingga menjalankan agen AI secara real time.
OpenAI tidak merinci nilai komersial dari kesepakatan ini. Namun menurut laporan sejumlah media internasional yang mengutip dari sumber yang dekat dengan isu ini, kerja sama OpenAI-Cerebras ini disebut bernilai lebih dari 10 miliar dollar AS (lebih dari sekitar Rp 160 triliun) hingga 2028.
Ilustrasi chip AI. Dalam pengumuman di blog resmi, sebagaimana dihimpun KompasTekno, Kamis (15/1/2026), OpenAI hanya menjelaskan bahwa Cerebras dipilih karena memiliki pendekatan berbeda dibanding hardware AI konvensional.
Cerebras membangun sistem AI khusus dengan menggabungkan komputasi, memori, dan bandwidth dalam satu chip raksasa. Pendekatan ini menghilangkan banyak hambatan (bottleneck) yang biasanya memperlambat proses inferensi pada hardware tradisional.
Dengan kata lain, AI tidak perlu “bolak-balik” antar-chip atau server untuk memproses permintaan. Hasilnya, secara teori, output bisa dihasilkan jauh lebih cepat, terutama untuk respons panjang dan kompleks.
Integrasi kapasitas komputasi dari Cerebras ke sistem OpenAI akan dilakukan secara bertahap dan menyasar berbagai jenis beban kerja.
Bagi pengguna, dampaknya sederhana tapi signifikan. AI yang lebih cepat berarti percakapan terasa lebih alami, waktu tunggu respons lebih singkat, dan pengalaman menggunakan AI yang semakin mendekati interaksi manusia secara real time.
Kerja sama lainnya
Samsung Electronics Chairman Lee Jae-yong (kiri) berjabat tangan dengan CEO OpenAI, Sam Altman (kanan), dalam acara penandatanganan kolaborasi antara Samsung dan OpenAI, di kantor pusat Samsung, Seoul, Korea Selatan.
Sebelumnya, OpenAI juga menggandeng beberapa pihak untuk terus meningkatkan layanan AI dan infrastrukturnya. Misalnya, pada Oktober 2025, OpenAI resmi menandatangani kemitraan strategis dengan raksasa semikonduktor AS, Broadcom.
Kerja sama ini ditujukan khusus untuk mengembangkan chip AI khusus (custom AI accelerators) yang mampu mengakomodir daya komputasi hingga 10 gigawatt.
Sebagai perbandingan, satu pusat data (data center) dengan kapasitas 1 gigawatt saja mampu menyalakan sekitar satu juta rumah tangga.
Artinya, jika proyek OpenAI–Broadcom ini rampung, sistem chip dan infrastruktur AI yang dibangun nantinya akan memiliki daya setara 10 juta rumah.
Perusahaan AI yang didirikan oleh Sam Altman ini juga meneken kerja sama dengan AMD untuk menyediakan komputasi atau server dengan daya hingga 6 gigawatt yang dibangun menggunakan chip GPU AI buatan AMD.
GPU AI yang digunakan dalam proyek ini adalah AMD Instinct MI450. Tahap pertama proyek ini akan dimulai pada paruh kedua 2026.
Pada tahap ini, AMD akan menyediakan 1 gigawatt GPU AMD Instinct MI450 terlebih dahulu. Dengan kapasitas server GPU lebih banyak, produk dan layanan OpenAI, seperti ChatGPT akan semakin pintar dan responsif melaksanakan perintah atau prompt.
Selanjutnya, OpenAI juga bermitra dengan Samsung. Proyek Stargate diperkirakan membutuhkan memori berkapasitas besar, yakni mencapai 900.000 wafer DRAM per bulannya. Karena itu, dalam kolaborasi ini, Samsung berencana untuk menyediakan memori berperforma tinggi dan hemat energi.
Tag: #openai #gandeng #pesaing #nvidia #demi #lebih #canggih