Heim > Technologie-Peripheriegeräte > KI > Das Team von You Yang erzielte beim AAAI 2023 Outstanding Paper Award neue Ergebnisse, indem es mit einem einzigen V100 das Modell 72-mal schneller trainierte

Das Team von You Yang erzielte beim AAAI 2023 Outstanding Paper Award neue Ergebnisse, indem es mit einem einzigen V100 das Modell 72-mal schneller trainierte

王林
Freigeben: 2023-05-10 09:04:10
nach vorne
1046 Leute haben es durchsucht

Dieser Artikel wird mit Genehmigung von AI New Media Qubit (öffentliche Konto-ID: QbitAI) nachgedruckt. Bitte wenden Sie sich für einen Nachdruck an die Quelle.

Gerade hat UC Berkeley Ph.D. und Jungprofessor You Yang, Präsident der National University of Singapore, die neuesten Nachrichten veröffentlicht –

hat den AAAI 2023Outstanding Paper Award(Distinguished Paper) gewonnen!

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Die Forschungsergebnisse erhöhten die Trainingsgeschwindigkeit des Modells auf einmal um das 72-fache.

Selbst Internetnutzer äußerten Emotionen, nachdem sie die Zeitung gelesen hatten:

Von 12 Stunden bis 10 Minuten, zarte Kuh(du Kuh)ah!

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Dr. You Yang stellte während seines Studiums einmal den Weltrekord für ImageNet- und BERT-Trainingsgeschwindigkeit auf.

Die von ihm entwickelten Algorithmen werden auch häufig bei Technologiegiganten wie Google, Microsoft, Intel und NVIDIA eingesetzt.

Jetzt ist er nach China zurückgekehrt, um ein Unternehmen zu gründen Luchen TechnologyWelche Art von Algorithmus haben er und sein Team nach anderthalb Jahren entwickelt, um eine solche Ehre auf der Top-KI-Konferenz zu gewinnen?

Trainingszeit von 12 Stunden auf 10 Minuten

In dieser Studie schlug das Team von You Yang eine Optimierungsstrategie CowClip vor, die das Training von CTR-Vorhersagemodellen in großen Mengen beschleunigen kann.

CTR(Klickrate)Das Vorhersagemodell ist ein häufig verwendeter Algorithmus in personalisierten Empfehlungsszenarien.

Normalerweise muss das Benutzerfeedback (Klicks, Sammlungen, Käufe usw.) gelernt werden , und die täglich online generierte Datenmenge ist beispiellos groß.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Daher ist es entscheidend, das Training von CTR-Vorhersagemodellen zu beschleunigen.

Um die Trainingsgeschwindigkeit zu erhöhen, wird im Allgemeinen ein Batch-Training verwendet. Wenn die Batch-Größe jedoch zu groß ist, wird die Genauigkeit des Modells verringert.

Durch mathematische Analysen hat das Team bewiesen, dass die Lernrate für seltene Funktionen beim Erweitern des Stapels nicht skaliert werden sollte.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Mit dem von ihnen vorgeschlagenen CowClip kann die Chargengröße einfach und effektiv erweitert werden.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Durch Tests mit 4 CTR-Vorhersagemodellen und 2 Datensätzen konnte das Team die ursprüngliche Chargengröße erfolgreich um das

128-fache erweitern, ohne dass es zu Genauigkeitsverlusten kam.

Insbesondere auf DeepFM erreicht CowClip eine Verbesserung der AUC um über 0,1 %, indem es die Batch-Größe von 1K auf 128K erhöht.

Und auf einer einzelnen V100-GPU verkürzt sich die Trainingszeit von ursprünglich 12 Stunden auf nur 10 Minuten und die Trainingsgeschwindigkeit erhöht sich um das

72-fache.

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

Derzeit ist der Projektcode Open Source. Das Team sagte, der Algorithmus sei auch für Aufgaben wie NLP geeignet.

Teamvorstellung

Der erste Autor dieses Artikels ist You Yangs Doktorand

Zheng Changwei. Er schloss die Computer-Eliteklasse der Universität Nanjing mit einem Bachelor-Abschluss und einem Ph.D. ab.

Seine Forschungsrichtungen umfassen maschinelles Lernen, Computer Vision und Hochleistungsrechnen.

Das obige ist der detaillierte Inhalt vonDas Team von You Yang erzielte beim AAAI 2023 Outstanding Paper Award neue Ergebnisse, indem es mit einem einzigen V100 das Modell 72-mal schneller trainierte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage