Akamai Technologies mengumumkan implementasi Nvidia AI Grid. Lewat kerja sama dengan Nvidia, Akamai mendorong pergeseran infrastruktur AI dari model terpusat ke sistem terdistribusi berbasis jaringan edge.
Langkah ini menjadi bagian dari pengembangan Akamai Inference Cloud yang diperkenalkan sebelumnya. Dalam implementasinya, Akamai mengoperasikan ribuan GPU Nvidia RTX PRO 6000 Blackwell Server Edition untuk mendukung beban kerja AI, termasuk AI berbasis agen dan aplikasi real-time.
Akamai menyebut pendekatan ini sebagai upaya melampaui konsep AI factory yang selama ini berfokus pada pelatihan model di pusat data terpusat. Dengan AI Grid, proses inferensi--yakni eksekusi model AI--dipindahkan lebih dekat ke pengguna melalui jaringan edge yang tersebar di lebih dari 4.400 lokasi global.
SCROLL TO CONTINUE WITH CONTENT
"Pabrik AI telah dirancang khusus untuk beban kerja pelatihan dan model terdepan -- dan infrastruktur terpusat akan terus memberikan tokenomics terbaik untuk kasus penggunaan tersebut," kata Adam Karon, Chief Operating Officer dan General Manager, Cloud Technology Group, Akamai, dalam keterangan yang diterima detikINET.
Pendekatan ini ditujukan untuk menekan latensi dan meningkatkan efisiensi biaya. Akamai mengandalkan orkestrasi beban kerja untuk mengatur distribusi komputasi secara dinamis, termasuk penggunaan teknik seperti caching semantik dan routing cerdas untuk mengoptimalkan performa.
Secara teknis, Akamai menggabungkan infrastruktur edge dengan klaster GPU berkapasitas tinggi di pusat data. Kombinasi ini memungkinkan pemrosesan AI skala besar tetap berjalan di core, sementara inferensi dengan kebutuhan respons cepat dilakukan di edge.
Beberapa sektor yang menjadi target implementasi mencakup game, layanan keuangan, media, hingga ritel. Misalnya, studio game dapat menghadirkan interaksi NPC berbasis AI dengan latensi di bawah 50 milidetik, sementara sektor keuangan memanfaatkan sistem ini untuk deteksi penipuan dan personalisasi layanan secara real-time.
Di sisi lain, penyiaran dan media dapat menggunakan jaringan ini untuk transkoding dan dubbing berbasis AI secara langsung, tanpa jeda signifikan.
Nvidia menyebut implementasi ini membuka peluang untuk pengembangan aplikasi AI generatif, agen, hingga AI fisik yang membutuhkan respons cepat dan skalabilitas global.
Akamai menilai model terdistribusi ini menjadi evolusi berikutnya dari infrastruktur AI, seiring meningkatnya kebutuhan inferensi dibandingkan pelatihan model. Dengan memindahkan komputasi lebih dekat ke pengguna, perusahaan berharap dapat menghadirkan performa yang lebih stabil sekaligus efisiensi operasional bagi pelanggan korporat.
(asj/asj)
