Heim > Technologie-Peripheriegeräte > KI > Ein vorläufiges Verständnis neuronaler Netze

Ein vorläufiges Verständnis neuronaler Netze

PHPz
Freigeben: 2024-01-23 19:00:15
nach vorne
916 Leute haben es durchsucht

Ein vorläufiges Verständnis neuronaler Netze

Einheiten, auch Knoten oder Neuronen genannt, sind der Kern neuronaler Netze. Jede Einheit empfängt eine oder mehrere Eingaben, multipliziert jede Eingabe mit einer Gewichtung und addiert dann die gewichteten Eingaben zum Bias-Wert. Anschließend wird dieser Wert in die Aktivierungsfunktion eingespeist. In einem neuronalen Netzwerk kann die Ausgabe einer Einheit an andere Neuronen gesendet werden.

Mehrschichtiges Perzeptron, auch bekannt als Feedforward-Neuronales Netzwerk, ist derzeit das am weitesten verbreitete und einfachste künstliche neuronale Netzwerkmodell. Es besteht aus mehreren miteinander verbundenen Schichten, wobei jede Schicht Eingabemerkmale mit Zielwerten verbindet. Diese Netzwerkstruktur wird als „Feedforward“ bezeichnet, da die eingegebenen Merkmalswerte „vorwärts“ durch das Netzwerk geleitet werden und jede Schicht die Merkmalswerte transformiert, bis die endgültige Ausgabe mit der Zielausgabe übereinstimmt.

In einem vorwärtsgerichteten neuronalen Netzwerk gibt es drei Arten von Schichten. Jede Einheit enthält Beobachtungen eines einzelnen Features im Eingabe-Layer. Wenn 100 Feature-Beobachtungen vorhanden sind, verfügt der Eingabe-Layer über 100 Knoten. Die Ausgabeschicht wandelt die Ausgabe der verborgenen Schicht in nützliche Werte für das neuronale Netzwerk um. Um eine binäre Klassifizierung zu implementieren, können wir die Sigmoidfunktion in der Ausgabeschicht verwenden, um die Ausgabe auf eine Klassenwahrscheinlichkeit von 0 oder 1 zu skalieren. Die verborgene Schicht befindet sich zwischen der Eingabeschicht und der Ausgabeschicht und ist für die Verarbeitung der Merkmalswerte aus der Eingabeschicht verantwortlich. Schließlich wandelt die Ausgabeschicht sie in Werte um, die der Zielklasse ähneln.

Die Parameter eines neuronalen Netzwerks werden normalerweise auf kleine Zufallswerte initialisiert, die aus einer Gaußschen Verteilung oder einer normalen Gleichverteilung stammen können. Die Verlustfunktion wird verwendet, um die Differenz zwischen dem Ausgangswert des Netzwerks und dem beobachteten Wert zu messen, verglichen mit dem wahren Wert nach der Einspeisung durch das Netzwerk. Der Vorwärtsausbreitungsalgorithmus wird verwendet, um zu bestimmen, welche Parameter am meisten zur Differenz zwischen vorhergesagten und wahren Werten beitragen. Durch den Optimierungsalgorithmus wird jedes Gewicht entsprechend der ermittelten Größe angepasst.

Das neuronale Netzwerk lernt aus jeder Beobachtung in den Trainingsdaten durch mehrere Iterationen der Vorwärts- und Rückwärtsausbreitung. Die Häufigkeit, mit der jede Beobachtung durch das Netzwerk gesendet wird, wird als Epoche bezeichnet. Typischerweise besteht das Training aus mehreren Epochen, um die Parameter iterativ anzupassen.

Das obige ist der detaillierte Inhalt vonEin vorläufiges Verständnis neuronaler Netze. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:163.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage