Kesuksesan chip H100 membuat kapitalisasi Nvidia meroket, dan mereka kini memamerkan penerusnya yang bernama Blackwell B200 dan GB200.
Nvidia menggadang dua chip baru ini sebagai chip AI terkencang di dunia. B200 misalnya, menawarkan kemampuan komputasi hingga 20 petaflops FP4, yang dihasilkan dari 208 miliar transistor yang dipakainya.
Sementara itu GB200 mengkombinasikan dua buah B200 menjadi sebuah CPU Grace yang menawarkan performa 30x lebih kencang untuk komputasi large language model (LLM) inference, sembari tetap menjaga konsumsi dayanya yang diklaim 25x lebih irit dibanding H100.
SCROLL TO CONTINUE WITH CONTENT
Menurut Nvidia, melatih 1,8 triliun parameter sebelumnya membutuhkan sekitar 8000 GPU Hopper dan mengkonsumsi 15 megawatt. Namun kini, CEO Nvidia Jensen Huang menyebut 2000 GPU Blackwell bisa melakukan hal yang sama dengan konsumsi daya hanya 4 megawatt.
Sementara untuk LLM GPT-3 dengan175 miliar parameter, Nvidia mengklaim GB200 punya performa tujuh kali lebih kencang dibanding H100, dan pelatihannya membutuhkan waktu empat kali lebih cepat, demikian dikutip detikINET dari The Verge, Selasa (19/3/2024).
Keunggulan utama dari kedua chip baru ini menurut Nvidia adalah engine transformer generasi kedua yang punya kemampuan komputasi, bandwidht dan ukuran model dua kali lebih besar.
Lalu perbedaan utama yang kedua adalah saat penggunanya bisa menghubungkan GPU ini dengan switch NVLink generasi baru yang bisa menyambungkan hingga 576 GPU sekaligus, dengan bandwidth hingga 1,8TB per detik.
Menurut Nvidia, Amazon, Google, Microsoft, dan Oracle sudah berencana untuk menawarkan rak NVL72 di layanan cloud servicenya. Namun belum diketahui berapa banyak chip Blackwell yang akan mereka pesan.
Sistem Blackwell ini juga didesain agar bisa dioperasikan dalam jumlah besar, hingga puluhan ribu chip GB200, terhubung dengan jaringan 800Gbps yang ada di Quantum-X800 InfiniBand (hingga 144 sambungan), atau Spectrum-x800 ethernet (hingga 64 sambungan).
(asj/asj)