Heim > Backend-Entwicklung > Python-Tutorial > Optimierung Ihrer neuronalen Netze

Optimierung Ihrer neuronalen Netze

DDD
Freigeben: 2024-10-13 06:15:02
Original
955 Leute haben es durchsucht

Letzte Woche habe ich einen Artikel darüber gepostet, wie man einfache neuronale Netze aufbaut, insbesondere mehrschichtige Perzeptrone. In diesem Artikel gehen wir tiefer auf die Besonderheiten neuronaler Netze ein, um zu diskutieren, wie wir die Leistung eines neuronalen Netzes durch Optimierung seiner Konfigurationen maximieren können.

Wie lange Sie Ihr Modell trainieren sollten

Wenn Sie ein Modell trainieren, denken Sie vielleicht, dass das Modell fehlerfrei wird, wenn Sie es ausreichend trainieren. Das mag wahr sein, aber das gilt nur für den Datensatz, auf dem trainiert wurde. Wenn Sie ihm einen anderen Datensatz mit unterschiedlichen Werten geben, könnte das Modell tatsächlich völlig falsche Vorhersagen ausgeben.

Um dies besser zu verstehen, nehmen wir an, dass Sie jeden Tag für Ihre Fahrerprüfung geübt haben, indem Sie geradeaus gefahren sind, ohne das Lenkrad zu bewegen. (Bitte tun Sie das nicht.) Während Sie auf dem Drag Strip wahrscheinlich sehr gute Leistungen erbringen würden, würde es passieren, dass Sie stattdessen in ein STOP-Schild geraten, wenn Ihnen bei der eigentlichen Prüfung gesagt würde, dass Sie links abbiegen sollen.

Dieses Phänomen wird als Überanpassung bezeichnet. Ihr Modell kann alle Aspekte und Muster der Daten lernen, anhand derer es trainiert wird. Wenn es jedoch ein Muster lernt, das sich zu sehr an den Trainingsdatensatz anlehnt, wird die Leistung Ihres Modells bei einem neuen Datensatz schlecht sein. Wenn Sie Ihr Modell jedoch nicht ausreichend trainieren, ist Ihr Modell nicht in der Lage, Muster in anderen Datensätzen richtig zu erkennen. In diesem Fall wären Sie unterpassend.

Optimizing Your Neural Networks


Ein Beispiel für Überanpassung. Der Validierungsverlust, dargestellt durch die orange Linie, nimmt allmählich zu, während der Trainingsverlust, dargestellt durch die blaue Linie, abnimmt.

Im obigen Beispiel wäre es eine gute Position, das Training Ihres Modells dann zu beenden, wenn der Validierungsverlust sein Minimum erreicht. Dies ist mit frühzeitigem Stoppen möglich, das das Training stoppt, sobald nach einer beliebigen Anzahl von Trainingszyklen (Epochen) keine Verbesserung des Validierungsverlusts eintritt.

Beim Training Ihres Modells geht es darum, ein Gleichgewicht zwischen Über- und Unteranpassung zu finden und bei Bedarf frühzeitiges Stoppen zu nutzen. Aus diesem Grund sollte Ihr Trainingsdatensatz so repräsentativ wie möglich für Ihre Gesamtpopulation sein, damit Ihr Modell genauere Vorhersagen zu Daten treffen kann, die es nicht gesehen hat.

Verlustfunktionen

Vielleicht ist eine der wichtigsten Trainingskonfigurationen, die optimiert werden können, die Verlustfunktion, die die „Ungenauigkeit“ zwischen den Vorhersagen Ihres Modells und ihren tatsächlichen Werten darstellt. Die „Ungenauigkeit“ kann mathematisch auf viele verschiedene Arten dargestellt werden, eine der häufigsten ist mittlerer quadratischer Fehler (MSE):

MSE=i=1n(yiˉyi)2ntext{MSE} = frac{sum_{i=1}^n (bar{y_i} - y_i)^2}{n} MSE= ni=1 n(yiˉyi)2

wo yiˉbar{y_i} yichˉ ist die Vorhersage des Modells und yiy_i yi ist der wahre Wert. Es gibt eine ähnliche Variante namens mittlerer absoluter Fehler (MAE)

MAE=i=1nyiˉyintext{MAE} = frac{sum_{i=1}^n |bar{y_i} - y_i|}{n} MAE= ni=1 nyiˉyi

Was ist der Unterschied zwischen diesen beiden und welches ist besser? Die eigentliche Antwort ist, dass es von einer Vielzahl von Faktoren abhängt. Betrachten wir ein einfaches Beispiel einer zweidimensionalen linearen Regression.

In vielen Fällen kann es Datenpunkte geben, die Ausreißer sind, also Punkte, die weit von anderen Datenpunkten entfernt sind. Bezogen auf die lineare Regression bedeutet dies, dass es einige Punkte gibt xyxy xy -Flugzeug, das weit vom Rest entfernt ist. Wenn Sie sich aus Ihrem Statistikunterricht erinnern, sind es Punkte wie diese, die die berechnete lineare Regressionslinie erheblich beeinflussen können.

Optimizing Your Neural Networks
Ein einfacher Graph mit Punkten auf (1, 1), (2, 2), (3, 3) und (4, 4)

Wenn Sie sich eine Linie vorstellen wollten, die alle vier Punkte schneiden könnte, dann y=xy = x y=x wäre eine gute Wahl, da diese Linie durch alle Punkte gehen würde.

Optimizing Your Neural Networks
Ein einfacher Graph mit Punkten auf (1, 1), (2, 2), (3, 3) und (4, 4) und der Linie y=xy = x y=x es durchgehen

Nehmen wir jedoch an, ich beschließe, einen weiteren Punkt hinzuzufügen (5,1) (5, 1) (5,1) . Wie sollte nun die Regressionslinie aussehen? Nun, es stellt sich heraus, dass es völlig anders ist: y=0,2x 1,6y = 0,2x 1,6 y=0,2x 1,6

Optimizing Your Neural Networks


Ein einfacher Graph mit Punkten auf (1, 1), (2, 2), (3, 3), (4, 4) und (5,1 ) mit einer durch sie verlaufenden linearen Regressionsgeraden.

Angesichts der vorherigen Datenpunkte würde die Linie erwarten, dass der Wert von jj j Wann x=5x = 5 x=5 ist 5, aber aufgrund des Ausreißers und seines MSE wird die Regressionslinie deutlich „nach unten gezogen“.

Dies ist nur ein einfaches Beispiel, aber das wirft eine Frage auf, über die Sie als Entwickler maschinellen Lernens nachdenken müssen: Wie empfindlich sollte mein Modell gegenüber Ausreißern sein? Wenn Sie möchten Soll das Modell empfindlicher auf Ausreißer reagieren, dann würden Sie eine Metrik wie MSE wählen, da in diesem Fall Fehler mit Ausreißern aufgrund der Quadrierung stärker ausgeprägt sind und Ihr Modell sich selbst anpasst, um dies zu minimieren. Andernfalls würden Sie eine Metrik wie MAE wählen, die sich nicht so sehr um Ausreißer kümmert.

Optimierer

In meinem vorherigen Beitrag habe ich auch das Konzept der Backpropagation und des Gradientenabstiegs besprochen und wie sie funktionieren, um den Verlust des Modells zu minimieren. Der Gradient ist ein Vektor, der in die Richtung der größten Veränderung zeigt. Ein Gradientenabstiegsalgorithmus berechnet diesen Vektor und bewegt sich in die genau entgegengesetzte Richtung, sodass er schließlich ein Minimum erreicht.

Die meisten Optimierer haben eine bestimmte Lernrate, die üblicherweise als bezeichnet wird αalpha α an die sie sich halten. Dies stellt im Wesentlichen dar, wie weit sich der Algorithmus bei jeder Berechnung des Gradienten in Richtung des Minimums bewegt. Achten Sie darauf, dass Sie Ihre Lernrate nicht zu hoch einstellen! Ihr Algorithmus erreicht möglicherweise nie das Minimum, da die erforderlichen großen Schritte wiederholt das Minimum überspringen könnten.

Optimizing Your Neural Networks
[Tensorflows Spielplatz für neuronale Netze](https://playground.tensorflow.org) zeigt, was passieren kann, wenn Sie die Lernrate zu hoch einstellen. Beachten Sie, dass sowohl der Test- als auch der Trainingsverlust „NaN“ betragen.

Um noch einmal auf den Gradientenabstieg zurückzukommen: Dieser ist zwar wirksam bei der Minimierung von Verlusten, kann jedoch den Trainingsprozess erheblich verlangsamen, da die Verlustfunktion für den gesamten Datensatz berechnet wird. Es gibt mehrere Alternativen zum Gefälleabstieg, die effizienter sind, aber ihre jeweiligen Nachteile haben.

Stochastischer Gradientenabstieg

Eine der beliebtesten Alternativen zum standardmäßigen Gradientenabstieg ist eine Variante namens stochastischer Gradientenabstieg (SGD). Wie beim Gradientenabstieg hat SGD eine feste Lernrate. Aber anstatt wie bei einem Gradientenabstieg den gesamten Datensatz zu durchlaufen, nimmt SGD eine kleine Stichprobe, die zufällig ausgewählt wird, und die Gewichte Ihres neuronalen Netzwerks werden stattdessen basierend auf der Stichprobe aktualisiert. Schließlich konvergieren die Parameterwerte zu einem Punkt, der die Verlustfunktion ungefähr (aber nicht genau) minimiert. Dies ist einer der Nachteile von SGD, da es nicht immer das genaue Minimum erreicht. Darüber hinaus bleibt es, ähnlich wie beim Gradientenabstieg, empfindlich gegenüber der von Ihnen eingestellten Lernrate.

Der Adam-Optimierer

Der Name Adam leitet sich von der adaptiven Momentenschätzung ab. Es kombiniert im Wesentlichen zwei SGD-Varianten, um die Lernrate für jeden Eingabeparameter basierend darauf anzupassen, wie oft er während jeder Trainingsiteration aktualisiert wird (adaptive Lernrate). Gleichzeitig werden vergangene Gradientenberechnungen als gleitender Durchschnitt verfolgt, um Aktualisierungen zu glätten (Momentum). Aufgrund seiner Impulscharakteristik kann die Konvergenz jedoch manchmal länger dauern als bei anderen Algorithmen.

Alles zusammenfügen

Jetzt ein Beispiel!

Ich habe auf Google Colab eine beispielhafte Komplettlösung erstellt, die PyTorch verwendet, um ein neuronales Netzwerk zu erstellen, das eine einfache lineare Beziehung lernt.

Wenn Sie Python noch nicht kennen, machen Sie sich keine Sorgen! Ich habe einige Erklärungen beigefügt, die besprechen, was in den einzelnen Abschnitten vor sich geht.

Spiegelung

Obwohl dies natürlich nicht alles über die Optimierung neuronaler Netze abdeckt, wollte ich zumindest einige der wichtigsten Konzepte abdecken, die Sie beim Training Ihrer eigenen Modelle nutzen können. Hoffentlich haben Sie diese Woche etwas gelernt und vielen Dank fürs Lesen!

Das obige ist der detaillierte Inhalt vonOptimierung Ihrer neuronalen Netze. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage