Berita pada 5 April, waktu tempatan pada hari Selasa, Google Alphabet mendedahkan beberapa butiran baharu, menunjukkan mesin super yang digunakan untuk melatih model kecerdasan buatan, mengatakannya adalah lebih pantas dan lebih cekap tenaga daripada sistem berdasarkan cip A100 Nvidia.
Google telah mereka bentuk cip tersuainya sendiri yang dipanggil Tensor Processing Unit (TPU) dan menggunakan cip ini dalam lebih daripada 90% kerja latihan kecerdasan buatan. Proses ini melatih data melalui model untuk meningkatkan kegunaannya dalam tugas seperti tindak balas teks manusia atau penjanaan imej.
Pada masa ini, Google TPU telah memasuki generasi keempat. Google mengeluarkan kertas saintifik pada hari Selasa yang memperincikan bagaimana ia menggunakan suis optik tersuai yang dibangunkannya untuk menyambungkan lebih daripada 4,000 cip ke dalam superkomputer.
Bagi syarikat yang membina superkomputer AI, menambah baik sambungan ini telah menjadi titik penting dalam persaingan, kerana model bahasa berskala besar semakin berkembang dan tidak boleh disimpan pada satu cip teknologi seperti Google Bard atau OpenAI's ChatGPT.
Model sedemikian mesti diedarkan merentasi ribuan cip, yang kemudiannya berfungsi bersama selama beberapa minggu atau lebih lama untuk melatih model. Model PaLM Google, model bahasa terbesar yang didedahkan secara terbuka setakat ini, telah dilatih selama 50 hari yang tersebar di dua superkomputer 4,000 cip.
Google mengatakan superkomputernya boleh mengkonfigurasi semula sambungan antara cip dengan mudah dan dinamik, membantu mengelakkan kegagalan dan mengoptimumkan prestasi.
"Pensuisan litar membolehkan kami memintas komponen yang gagal dengan mudah," Penyelidik Kanan Google Norm Jouppi dan Jurutera Terbilang Google David Patterson menulis dalam catatan blog tentang sistem itu. "Fleksibiliti ini malah membolehkan kami menukar topologi rangkaian interkoneksi superkomputer untuk mempercepatkan prestasi model ML (pembelajaran mesin)
Walaupun Google tidak mendedahkan butiran superkomputernya sehingga kini, Ia telah diumumkan. beroperasi di luar pusat data di Mayes County, Oklahoma sejak 2020. Google berkata permulaan Midjourney menggunakan sistem itu untuk melatih modelnya, yang boleh menjana imej baharu selepas diberi beberapa perkataan teks.
Google berkata dalam kertas itu bahawa superkomputernya adalah 1.7 kali lebih pantas dan 1.9 kali lebih cekap tenaga daripada sistem berdasarkan cip NVIDIA A100 berbanding sistem yang sama saiz. Difahamkan cip A100 dilancarkan lebih awal berbanding TPU generasi keempat.
Google berkata bahawa ia tidak membandingkan TPU generasi keempat dengan cip H100 perdana semasa Nvidia, kerana H100 telah dilancarkan selepas penggunaan cip ini oleh Google dan menggunakan teknologi yang lebih baharu.
Google membayangkan bahawa ia sedang membangunkan TPU baharu yang akan bersaing dengan Nvidia H100, tetapi tidak memberikan butiran. Jouppi memberitahu media bahawa Google mempunyai "rizab cip masa depan yang mencukupi."
Atas ialah kandungan terperinci Google mengumumkan generasi baru superkomputer AI, mengatakan ia lebih pantas dan lebih cekap tenaga daripada NVIDIA A100. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!