Google telah melancarkan TPU v5e cip pemproses tensor tersuai generasi kelima (TPU) untuk latihan dan inferens model besar. Cip baharu menjadikannya lima kali lebih pantas untuk melatih dan menjalankan model AI. Berbanding dengan cip generasi sebelumnya, TPU v5e meningkatkan prestasi latihan sebanyak 2 kali setiap dolar dan meningkatkan prestasi inferens sebanyak 2.5 kali setiap dolar
Cip pemproses tensor tersuai (TPU) generasi kelima Google, TPU v5e, digunakan untuk latihan dan inferens model besar, menghasilkan latihan dan menjalankan model AI sehingga 5 kali lebih pantas
Di Google Cloud Next, persidangan tahunan Google Cloud di San Francisco, Google mengeluarkan cip kecerdasan buatan baharu - cip pemproses tensor tersuai (TPU) generasi kelima TPU v5e, digunakan untuk latihan model berskala besar dan inferens . Berbanding dengan cip generasi sebelumnya, TPU v5e meningkatkan prestasi latihan sebanyak 2 kali setiap dolar dan meningkatkan prestasi inferens sebanyak 2.5 kali setiap dolar
Google telah mereka bentuk TPU cip khusus untuk rangkaian saraf, yang boleh mempercepatkan latihan dan inferens model pembelajaran mesin melalui pengoptimuman. TPU generasi pertama telah dilancarkan pada 2016, dan TPU pemproses tersuai generasi keempat dikeluarkan pada 2021 dan akan tersedia kepada pembangun pada 2022. Cloud TPU ialah ciri Perkhidmatan Awan Google dan sesuai untuk model pembelajaran mendalam yang besar dan kompleks yang memerlukan sejumlah besar pengiraan matriks, seperti model bahasa besar, pemodelan lipatan protein dan pembangunan dadah. Menggunakan TPU awan boleh membantu perusahaan menjimatkan wang dan masa apabila melaksanakan beban kerja AI
Google Cloud telah melancarkan TPU v5e, yang direka untuk keperluan latihan dan inferens model sederhana dan besar. Versi cip ini memfokuskan pada kecekapan Berbanding dengan TPU v4 generasi sebelumnya, prestasi latihan bagi setiap dolar dipertingkatkan sebanyak 2 kali ganda, dan prestasi inferens setiap dolar dipertingkatkan sebanyak 2.5 kali, manakala kosnya kurang daripada separuh daripada TPU v4. . Ini membolehkan lebih banyak organisasi melatih dan menggunakan model AI yang lebih besar dan lebih kompleks tanpa mengorbankan prestasi atau fleksibiliti. Google Cloud menerangkan TPU v5e sebagai "superkomputer" yang menyokong sambungan sehingga 256 cip, dengan jumlah lebar jalur lebih daripada 400 Tb/s, dan menawarkan lapan konfigurasi mesin maya yang berbeza untuk memenuhi pelbagai model bahasa besar dan generatif. kecerdasan buatan Keperluan untuk model pintar. Mengikut penanda aras kelajuan, latihan dan menjalankan model AI adalah 5x lebih pantas dengan TPU v5e
Menurut TechCrunch media teknologi, Mark Lohmeyer, naib presiden dan pengurus besar Pengkomputeran Awan Google dan Infrastruktur Pembelajaran Mesin, berkata, "Ini ialah TPU awan yang paling kos efektif dan boleh diakses setakat ini, Lohmeyer Er menekankan bahawa Google Cloud memastikan pengguna boleh meningkatkan kluster TPU mereka ke tahap yang tidak boleh dicapai sebelum ini, membolehkan pelanggan mengembangkan model kecerdasan buatan mereka dengan mudah melangkaui sempadan fizikal satu kluster TPU. Iaitu, satu beban kerja AI yang besar boleh menjangkau berbilang kelompok TPU fizikal dan menskalakan kepada puluhan ribu cip secara kos efektif. "Mengenai GPU awan dan TPU awan, kami memberi pelanggan banyak pilihan dan fleksibiliti untuk memenuhi permintaan luas yang kami lihat untuk beban kerja AI
Selain melancarkan TPU generasi baharu, Google Cloud juga mengumumkan bahawa ia akan melancarkan mesin maya siri A3 berdasarkan GPU NVIDIA H100 bulan depan, yang akan disediakan dalam bentuk superkomputer GPU untuk menyediakan kuasa pengkomputeran yang berkuasa untuk buatan besar. model kecerdasan
Atas ialah kandungan terperinci Google mengeluarkan cip AI generasi kelima: mempercepatkan latihan dan kelajuan larian model AI sebanyak 5 kali. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!