OpenAI Rilis GPT-5.3-Codex-Spark, AI Kencang dan Ringan untuk Coding
- OpenAI kembali merilis model AI baru untuk kebutuhan pemrograman pada Kamis (12/2/2026).
Model AI yang diperkenalkan kali ini adalah GPT-5.3-Codex-Spark, versi lebih ringan dari GPT-5.3-Codex yang dirancang khusus untuk coding secara real-time.
Berbeda dengan model utama GPT-5.3-Codex yang difokuskan untuk tugas berat dan jangka panjang, Codex-Spark ditujukan untuk pekerjaan cepat, seperti melakukan edit kecil pada kode, memperbaiki logika, atau mengubah antarmuka dan langsung melihat hasilnya.
GPT-5.3-Codex-Spark juga dirancang untuk latensi serendah mungkin. Latensi adalah jeda waktu antara pengguna mengirim perintah dan AI mulai memberikan respons.
OpenAI menjelaskan bahwa model ini cocok untuk kolaborasi interaktif. Pengguna bisa menghentikan, mengarahkan ulang, atau memperbaiki hasil kerja model secara langsung, lalu mendapatkan respons hampir seketika.
Baca juga: CEO Nvidia Minta Setop Coding, Lalu Programer Ngapain?
Karena dioptimalkan untuk kecepatan, Codex Spark bekerja dengan gaya yang lebih ringan. Model ini tidak otomatis menjalankan pengujian kode kecuali diminta, serta hanya melakukan perubahan yang spesifik dan terarah.
Lewat blog resminya, perusahaan AI yang didirikan Sam Altman ini menyebut, pada tahap awal, Codex Spark hadir dalam versi text-only dengan jendela konteks 128.000 token.
Artinya, model bisa memahami dan memproses percakapan atau kode dalam jumlah cukup besar dalam satu sesi.
Ilsutrasi AI bantu coding.
Didukung chip AI khusus dari Cerebras
OpenAI menyebut model ini sebagai tonggak awal kerja samanya dengan perusahaan chip AI Cerebras.
Pasalnya, GPT-5.3-Codex-Spark menjadi yang pertama memanfaatkan jalur inferensi latensi rendah berbasis chip Cerebras, yang digabungkan ke dalam sistem produksi OpenAI.
Codex-Spark dijalankan menggunakan chip khusus Cerebras Wafer Scale Engine 3 atau WSE-3. Chip ini diklaim memiliki 4 triliun transistor dan dirancang untuk inferensi super cepat.
Inferensi sendiri adalah proses saat model AI menghasilkan jawaban setelah menerima perintah.
Pada Codex-Spark, kecepatannya diklaim bisa menembus lebih dari 1.000 token per detik. Token bisa diartikan sebagai potongan teks atau unit kecil kata yang diproses model.
Kerja sama antara OpenAI dan Cerebras sendiri pertama kali terungkap pada pertengahan Januari lalu.
Lewat kemitraan yang digadang-gadang bernilai lebih dari 10 miliar dollar AS (lebih dari sekitar Rp 160 triliun) ini, OpenAI akan menambahkan hingga 750 megawatt (MW) kapasitas komputasi AI berlatensi rendah ke dalam platformnya secara bertahap hingga 2028.
Kolaborasi ini bertujuan membuat layanan AI OpenAI, termasuk ChatGPT, bisa merespons jauh lebih cepat. Khususnya untuk tugas-tugas berat seperti menjawab pertanyaan kompleks, menulis kode panjang, menghasilkan gambar, hingga menjalankan agen AI secara real time.
Ini dimungkinkan karena pembuat chip AI pesaing Nvidia ini membangun sistem AI khusus dengan menggabungkan komputasi, memori, dan bandwidth dalam satu chip raksasa.
Pendekatan ini diyakini menghilangkan banyak hambatan (bottleneck) yang biasanya memperlambat proses inferensi pada hardware tradisional.
Dengan kata lain, AI tidak perlu “bolak-balik” antar-chip atau server untuk memproses permintaan. Hasilnya, secara teori, output bisa dihasilkan jauh lebih cepat, terutama untuk respons panjang dan kompleks.
Bagi pengguna, dampaknya sederhana tapi signifikan. AI yang lebih cepat berarti percakapan terasa lebih alami, waktu tunggu respons lebih singkat, dan pengalaman menggunakan AI yang semakin mendekati interaksi manusia secara real time.
Meski begitu, GPU tetap menjadi tulang punggung pelatihan dan inferensi utama OpenAI. Cerebras disebut melengkapi sistem tersebut, terutama untuk beban kerja yang membutuhkan respons sangat cepat.
Baca juga: OpenAI Rilis GPT-5.2 Codex, AI Paling Jago Coding dan Kebal Retas
Tersedia untuk pengguna Pro
Saat ini, GPT-5.3-Codex-Spark tersedia dalam bentuk research preview untuk pengguna ChatGPT Pro melalui aplikasi Codex, CLI, dan ekstensi VS Code.
Karena dijalankan di perangkat keras khusus, model ini memiliki batas penggunaan tersendiri yang bisa berubah tergantung tingkat permintaan.
Ke depan, OpenAI membayangkan Codex akan memiliki dua mode utama yang saling melengkapi. Satu mode kerja "berat" untuk penalaran mendalam dan eksekusi kompleks. Lalu yang kedua sebagai mode kolaborasi real-time untuk iterasi cepat seperti yang ditawarkan Codex-Spark.
Tag: #openai #rilis #codex #spark #kencang #ringan #untuk #coding