Nvidia Rilis ''Vera Rubin'', Chip AI Canggih Baru Penerus Blackwell
Ringkasan berita:
- Nvidia meluncurkan arsitektur AI baru Vera Rubin untuk menggantikan Blackwell, dirancang menghadapi lonjakan kebutuhan komputasi AI generasi reasoning dan agentic AI.
- Vera Rubin hadir sebagai platform terpadu enam chip, menyerupai “superkomputer AI”, yang diklaim memangkas biaya inferensi hingga 10x dan melatih model AI lebih efisien dibanding generasi sebelumnya.
- Performa dan efisiensi melonjak tajam, dengan kecepatan hingga 5x lebih tinggi dan efisiensi energi 8x lebih baik; Rubin akan dipakai cloud besar seperti AWS, Google, Microsoft, dan Oracle mulai paruh kedua 2026.
- Perusahaan semikonduktor raksasa Nvidia resmi meluncurkan arsitektur chip AI terbarunya bernama Vera Rubin dalam ajang CES 2026 di Las Vegas, Amerika Serikat.
CEO Nvidia Jensen Huang mengatakan, Vera Rubin dirancang untuk menjawab lonjakan kebutuhan komputasi AI yang semakin ekstrem, baik untuk pelatihan model maupun inferensi.
“Jumlah komputasi yang dibutuhkan AI melonjak sangat cepat. Vera Rubin dirancang untuk menjawab tantangan itu, dan kini sudah masuk tahap produksi penuh,” ujar Huang dalam presentasinya di panggung CES 2026.
Arsitektur Rubin pertama kali diperkenalkan Nvidia pada 2024. Kini, platform yang namanya diambil dari astronom Amerika Vera Florence Cooper Rubin itu resmi menggantikan lini chip AI canggih Blackwell, sebagai fondasi terbaru infrastruktur AI Nvidia.
Blackwell sendiri diumumkan Maret tahun lalu, menggantikan arsitektur Hopper dan Lovelace.
Enam chip, satu “superkomputer AI”
Nvidia merancang Rubin sebagai platform terintegrasi yang terdiri dari enam chip utama yang bekerja bersama, menyerupai satu superkomputer AI.
Berbeda dari generasi sebelumnya, Vera Rubin bukan hanya soal satu GPU. Nvidia merancang Rubin sebagai platform terintegrasi yang terdiri dari enam chip utama yang bekerja bersama, menyerupai satu superkomputer AI.
Enam chip tersebut mencakup Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, dan Spectrum-6 Ethernet Switch.
Platform Rubin menggunakan pendekatan “extreme codesign” yang diklaim mampu memangkas waktu pelatihan AI dan menurunkan biaya inferensi secara signifikan.
Inferensi dalam AI merujuk pada proses menjalankan model untuk menghasilkan output dari input baru. Bukan proses belajar lagi, tapi menggunakan apa yang sudah dipelajari.
Menurut Nvidia, platform Rubin mampu memangkas biaya token inferensi hingga 10 kali lipat dibanding Blackwell, serta melatih model AI bertipe mixture-of-experts (MoE) dengan empat kali lebih sedikit GPU.
Yang baru di chip AI Nvidia Rubin
Nvidia resmi meluncurkan arsitektur chip AI terbarunya bernama Vera Rubin dalam ajang CES 2026 di Las Vegas, Amerika Serikat.
Nvidia menegaskan bahwa Vera Rubin dirancang untuk menghadapi era agentic AI dan model AI berbasis penalaran (reasoning), termasuk beban kerja generasi video mutakhir.
Jenis AI ini tidak lagi sekadar menjawab satu perintah, tetapi harus memproses rangkaian token panjang, berpikir bertahap, lalu mengambil tindakan.
Proses multilangkah seperti ini menuntut arsitektur komputasi yang jauh lebih cepat, efisien, dan stabil dibanding generasi sebelumnya. Untuk itu, platform Rubin dibekali lima teknologi kunci Nidia, sebagai berikut:
1. Nvidia Vera CPU
Salah satu pembaruan penting pada Rubin adalah kehadiran Vera CPU, CPU pertama Nvidia yang secara khusus dirancang untuk agentic reasoning, yaitu kemampuan AI untuk berpikir, merencanakan, dan bertindak secara mandiri dalam jangka panjang.
CPU ini disebut sebagai CPU paling hemat daya untuk “pabrik AI” berskala besar. Vera dibangun dengan 88 core Olympus rancangan Nvidia, mendukung arsitektur Armv9.2, serta konektivitas NVLink-C2C berkecepatan tinggi.
Kombinasi ini memungkinkan CPU menangani beragam beban kerja pusat data dengan efisiensi dan bandwidth tinggi.
2. Rubin GPU
Rubin GPU dibekali Transformer Engine generasi ketiga. GPU ini mendukung kompresi adaptif berbasis perangkat keras dan mampu menghadirkan performa hingga 50 petaflops NVFP4 untuk inferensi AI.
Teknologi ini dirancang agar model AI besar bisa berjalan lebih cepat dengan konsumsi daya yang lebih efisien.
3. NVLink generasi keenam
Teknologi ini berfungsi sebagai jalur komunikasi supercepat antar-GPU. Setiap GPU Rubin menawarkan bandwidth hingga 3,6 TB per detik.
Sementara satu rak Vera Rubin NVL72 mampu mencapai 260 TB per detik, bahkan disebut Nvidia melampaui total bandwidth internet global.
NVLink 6 juga dilengkapi komputasi langsung di jaringan untuk mempercepat operasi kolektif, serta fitur baru yang meningkatkan keandalan dan kemudahan perawatan sistem AI skala besar.
4. Confidential Computing generasi ketiga
Pada Vera Rubin NVL72, Nvidia menghadirkan perlindungan data menyeluruh di level CPU, GPU, hingga NVLink.
Fitur ini ditujukan untuk melindungi model AI proprietary bernilai tinggi, baik saat pelatihan maupun inferensi, dari risiko kebocoran data di lingkungan pusat data skala besar.
5. RAS Engine generasi kedua
Sistem ini mencakup pemantauan kesehatan real-time, toleransi kesalahan, serta perawatan proaktif untuk menjaga produktivitas sistem AI tetap maksimal.
Nvidia juga memperbarui desain rak Rubin dengan tray modular tanpa kabel, yang diklaim memungkinkan proses perakitan dan servis hingga 18 kali lebih cepat dibanding arsitektur Blackwell.
Rubin juga memperkenalkan sistem penyimpanan baru bernama Inference Context Memory Storage Platform. Sistem ini dirancang untuk menangani kebutuhan memori AI modern, khususnya key-value cache yang makin besar seiring model AI makin kompleks.
Lebih cepat, lebih hemat energi
Ilustrasi chip AI. Dari sisi performa, Nvidia mengeklaim Vera Rubin menawarkan lompatan besar dibanding pendahulunya.
Untuk tugas pelatihan model, Rubin disebut 3,5 kali lebih cepat dibanding Blackwell. Untuk inferensi, peningkatannya bahkan mencapai 5 kali lebih cepat, dengan performa hingga 50 petaflops.
Efisiensi energi juga meningkat signifikan. Rubin diklaim mampu menghadirkan delapan kali lebih banyak komputasi inferensi per watt, sebuah faktor krusial di tengah meningkatnya konsumsi listrik pusat data AI global.
Nvidia menyebut Rubin akan diadopsi oleh hampir semua penyedia cloud besar dunia. Platform ini dijadwalkan digunakan oleh Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure mulai paruh kedua 2026.
Rubin juga akan dipakai di sejumlah proyek superkomputer besar, seperti Blue Lion milik HPE dan superkomputer Doudna di Lawrence Berkeley National Laboratory.
Selain itu, ekosistem pendukung Rubin mencakup banyak lab dan perusahaan AI ternama, termasuk OpenAI, Anthropic, Meta, Perplexity, hingga xAI, sebagaimana dihimpun dari Nvidia Newsroom.
Peluncuran Vera Rubin terjadi di tengah persaingan sengit pembangunan infrastruktur AI global.
Dalam laporan keuangan sebelumnya, Huang memperkirakan belanja infrastruktur AI dunia akan mencapai 3 hingga 4 triliun dollar AS (sekitar Rp 50.275,5 triliun hingga Rp 67.034,1 triliun) dalam lima tahun ke depan.
Tag: #nvidia #rilis #vera #rubin #chip #canggih #baru #penerus #blackwell