Basis Superkomputer Google
Superkomputer berbasis TPU Google, yang disebut TPU v4, “1,2x-1,7x lebih cepat dan menggunakan daya 1,3x-1,9x lebih sedikit daripada Nvidia A100,” tulis para peneliti Google.
“Kinerja, skalabilitas, dan ketersediaannya membuat superkomputer TPU v4 menjadi mesin pemutar utama untuk model bahasa besar,” lanjut para peneliti.
Namun, hasil TPU Google tidak dibandingkan dengan chip AI Nvidia terbaru, H100, karena itu lebih baru dan dibuat dengan teknologi manufaktur yang lebih canggih, kata para peneliti Google.
Hasil dan peringkat dari tes chip AI skala industri yang disebut MLperf dirilis pada hari Rabu, dan CEO Nvidia, Jensen Huang, mengatakan hasil untuk chip Nvidia terbaru yaitu H100, jauh lebih cepat dari generasi sebelumnya.
“Hari ini, MLPerf 3.0 menyoroti Hopper memberikan 4x lebih banyak kinerja daripada A100,” tulis Huang dalam sebuah posting blog. “Tingkat Generative AI selanjutnya membutuhkan infrastruktur AI baru untuk melatih Large Language Models dengan efisiensi energi yang besar.”
YOUTUBE: Peringatan Hari Air Sedunia, Ratusan orang serang Wae Ajang Golo Dukal
Jumlah daya komputer yang diperlukan untuk AI sangat mahal, dan banyak orang di industri ini fokus pada pengembangan chip baru, komponen seperti koneksi optik, atau teknik perangkat lunak yang mengurangi jumlah daya komputer yang dibutuhkan.
Persyaratan daya AI juga merupakan berkah bagi penyedia cloud seperti Google, Microsoft, dan Amazon, yang dapat menyewakan pemrosesan komputer per jam dan menyediakan kredit atau waktu komputasi kepada startup untuk membangun hubungan. (Cloud Google juga menjual waktu pada chip Nvidia.) Sebagai contoh, Google mengatakan bahwa Midjourney, sebuah generator gambar AI, dilatih dengan chip TPU mereka.