Akamai Umumkan Platform Cloud Inference, Bikin AI Lebih Cepat dan Dekat ke Pengguna
- Perusahaan komputasi awan asal Amerika Serikat, Akamai Technologies memperkenalkan platform AI baru bernama Akamai Cloud Inference. Platform ini akan membuat proses AI lebih cepat dan dekat ke pengguna (edge).
Cloud Inference ini didukung oleh teknologi Nvidia, yakni menggabungkan antara server Nvidia RTX Pro dan GPU Nvidia RTX Pro 6000 Blackwell Server Edition, DPU Nvidia BlueField-3, dan software Nvidia AI Interprise.
Teknologi Nvidia itu akan menyokong infrastruktur cloud terdistribusi dan jaringan edge global Akamai yang mencakup lebih dari 4.200 lokasi.
Cloud Inference memungkinkan agentic AI (AI yang bertindak secara otonom tanpa manusia) bisa memproses data, dan mengambil keputusan langsung di edge yang lebih dekat dengan pengguna.
Sebab, platform ini memang dirancang khusus untukmenyediakan pemrosesan edge AI berlatensi rendah secara real-time dalam skala global.
Sebelumnya, di sistem konvensional, pemrosesan AI berada di pusat data (core) yang lebih jauh dari pengguna, sehingga butuh waktu cukup lama dan rentan latensi.
Karena lebih dekat ke pengguna berkat Cloud Inference, maka respons dapat diberikan sangat cepat dan rute permintaan dapat ditentukan secara taktis.
Untuk diketahui, beban kerja berbasis agentic AI semakin membutuhkan inferensi berlatensi rendah, konteks lokal, dan kemampuan peningkatan skalabilitas global yang cepat. Oleh karena itu, Cloud Inference diharapkan bisa menjadi solusi kebutuhan tersebut.
"Dua puluh lima tahun yang lalu, kami memelopori CDN untuk mengatasi world wide wait dan mendorong web berkembang menjadi platform global seperti sekarang. Pola serupa kini terlihat pada AI, seiring meningkatnya kebutuhan untuk memperluas kapasitas dan kinerja inferensi,” ujar Tom Leighton, Chief Executive Officer Akamai, dalam keterangan resmi.
Sementara itu, Jensen Huang, CEO Nvidia mengatakan bahwa inferensi sudah menjadi fase AI yang membutuhkan komputasi lebih canggih, seperti penalaran secara real-time dalam skala global. Oleh karena itu, inferensi yang lebih dekat ke pengguna diperlukan.
"Bersama-sama, Nvidia dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, sehingga menghadirkan generative AI yang lebih cepat dan lebih skalabel dan mendorong lahirnya aplikasi-aplikasi cerdas generasi berikutnya," jelas Huang.
Akamai juga menyatakan komitmennya untuk memanfaatkan teknologi baru Nvidia ke depannya, termasuk DPU Nvidia BlueField-4 yang baru diumumkan 28 Oktober lalu.
Perluasan sektor
Ilustrasi platform AI Cloud Inference yang membuat proses AI lebih cepat dan dekat ke pengguna.
Akamai telah bekerja sama dengan Nvidia untuk menghadirkan inferensi ke wilayah yang sebelumnya tidak terjangkau, sehingga membuka cakupan baru lewat platform AI Akamai Cloud Inference ke beberapa sektor, sbb:
Memperluas AI Factories ke edge
Akamai Cloud Inference membawa AI Factories lebih dekat ke pengguna. AI Factories alias "pabrik AI" adalah pusat besar tempat data dikumpulkan dan model AI dilatih. Data tersebut yang akan dikirim ke jaringan edge global.
Dengan begitu, pemrosesan data dan keputusan bisa dilakukan di lokasi terdekat, bukan hanya di pusat data.
Hasilnya, agen AI bisa langsung menyesuaikan diri dengan lokasi dan perilaku pengguna untuk melakukan negosiasi, pembelian, atau transaksi otomatis secara real time.
Menghadirkan streaming inference dan keputusan cepat
Agen AI memerlukan beberapa inferensi berurutan untuk menyelesaikan tugas kompleks, yang dapat menimbulkan jeda dan menurunkan kualitas pengalaman pengguna.
Alur kerja AI berbasis agen membutuhkan beberapa panggilan inferensi, dan jika setiap panggilan menimbulkan latensi jaringan, pengalaman akan terasa lambat atau tidak memenuhi kebutuhan latensi antarmesin.
Nah, platform AI baru Akamai ini akan memberikan respons hampir seketika, sehingga agen AI bisa lebih responsif.
Hal ini dapat dimanfaatkan untuk mendeteksi penipuan, mempercepat pembayaran aman, dan mendukung pengambilan keputusan cepat di lingkungan industri.
AI fisik real-time
Cloud Inference membuat sistem AI fisik seperti robot industri, infrastruktur kota pintar, dan mobil otonom, bisa mengambil keputusan dalam hitungan milidetik.
AI bisa memproses data sensor dan bertindak langsung untuk menjaga keamanan dan efisiensi. Teknologi ini bikin mesin dan manusia bisa bekerja berdampingan secara aman di dunia nyata.
Mempercepat nilai bisnis
Platform ini otomatis membagi tugas AI, di mana proses ringan akan dijalankan di edge, sedangkan yang lebih kompleks dilakukan di pusat data.
Semua diatur oleh sistem "orkestrasi cerdas" dalam satu platform terpadu. Dengan cara ini, perusahaan bisa mempercepat hasil bisnis tanpa repot mengatur infrastruktur yang rumit.
Akamai Cloud Inference kini tersedia dan mulai diterapkan di 20 lokasi awal di berbagai wilayah. Akamai juga berencana akan memperluas kehadiran platform ini ke depannya.
Tag: #akamai #umumkan #platform #cloud #inference #bikin #lebih #cepat #dekat #pengguna