Heim > Backend-Entwicklung > Python-Tutorial > Nutzen Sie die Kraft von Hugging Face Transformers für maschinelles Lernen

Nutzen Sie die Kraft von Hugging Face Transformers für maschinelles Lernen

Mary-Kate Olsen
Freigeben: 2025-01-05 09:26:43
Original
454 Leute haben es durchsucht

In den letzten Jahren hat sich Hugging Face [https://huggingface.co/] zu einer der einflussreichsten Plattformen in der Community des maschinellen Lernens entwickelt und bietet Entwicklern und Forschern eine breite Palette an Tools und Ressourcen. Eines der bemerkenswertesten Angebote ist die Transformers-Bibliothek, die die Nutzung modernster Modelle, Datensätze und Anwendungen erleichtert. Mit dieser Bibliothek können Benutzer vorab trainierte Modelle nahtlos in ihre Projekte integrieren und Arbeitsabläufe für maschinelles Lernen beschleunigen.

In diesem Artikel erkunden wir die Transformers-Bibliothek, wie man sie installiert, und stellen einige praktische Anwendungsfälle mit Pipelines für Aufgaben wie Sentimentanalyse, Textgenerierung und Zero-Shot-Klassifizierung vor.

Harnessing the Power of Hugging Face Transformers for Machine Learning

Was sind Hugging Face Transformers?

Die Transformers-Bibliothek bietet APIs und Tools zum Herunterladen und Trainieren hochmoderner vorab trainierter Modelle, die für eine Vielzahl von Aufgaben optimiert sind, darunter Natural Language Processing (NLP) und Computer Vision und multimodale Anwendungen. Durch die Verwendung vorab trainierter Modelle können Sie Ihre Rechenkosten, Ihren CO2-Fußabdruck und die Zeit, die zum Trainieren eines Modells von Grund auf benötigt wird, drastisch reduzieren. Dies ist eine großartige Möglichkeit, den Entwicklungszyklus zu beschleunigen und die neuesten Fortschritte im maschinellen Lernen zu nutzen.

Die Bibliothek unterstützt Python 3.6 und arbeitet nahtlos mit Deep-Learning-Frameworks wie PyTorch, TensorFlow und Flax zusammen. Es ermöglicht Ihnen, Modelle direkt vom Hugging Face-Modell-Hub herunterzuladen und sie mit nur wenigen Codezeilen für Inferenzen zu verwenden.

Installationsanleitung

Bevor Sie mit der Verwendung der Transformers-Bibliothek beginnen, müssen Sie unbedingt Ihre Entwicklungsumgebung einrichten. So können Sie es installieren:

1. Richten Sie eine virtuelle Umgebung ein

Beginnen Sie mit der Erstellung einer virtuellen Umgebung in Ihrem Projektverzeichnis:

python -m venv .myenv
Nach dem Login kopieren
Nach dem Login kopieren

Aktivieren Sie die virtuelle Umgebung:

  • Unter Linux/macOS:
  source .myenv/bin/activate
Nach dem Login kopieren
Nach dem Login kopieren

Stellen Sie sicher, dass Sie die richtige Python-Version verwenden:

python -V
Nach dem Login kopieren
Nach dem Login kopieren

Stellen Sie sicher, dass Sie Python 3.6 verwenden (z. B. Python 3.10.10).

Pip auf die neueste Version aktualisieren:

pip install --upgrade pip
Nach dem Login kopieren
Nach dem Login kopieren

2. Installieren Sie die Transformers-Bibliothek

Jetzt können Sie Transformers installieren. Wenn Sie PyTorch verwenden, installieren Sie es zusammen mit der Bibliothek mit dem folgenden Befehl:

pip install 'transformers[torch]'
Nach dem Login kopieren
Nach dem Login kopieren

Für TensorFlow 2.0:

pip install 'transformers[tf-cpu]'
Nach dem Login kopieren
Nach dem Login kopieren

Für Flachs (in Forschungsumgebungen verwendet):

python -m venv .myenv
Nach dem Login kopieren
Nach dem Login kopieren

Wenn Sie einen M Mac oder eine ARM-basierte Architektur verwenden, benötigen Sie möglicherweise zusätzliche Abhängigkeiten:

  source .myenv/bin/activate
Nach dem Login kopieren
Nach dem Login kopieren

Sobald alles eingerichtet ist, überprüfen Sie, ob die Installation erfolgreich war, indem Sie diesen Python-Befehl ausführen:

python -V
Nach dem Login kopieren
Nach dem Login kopieren

Bei Erfolg sollten Sie eine Ausgabe ähnlich der folgenden sehen:

pip install --upgrade pip
Nach dem Login kopieren
Nach dem Login kopieren

Verwenden der Pipeline-API für schnelle Inferenz

Die Pipeline-API in der Transformers-Bibliothek von Hugging Face erleichtert die Durchführung komplexer maschineller Lernaufgaben, ohne sich mit dem zugrunde liegenden Code oder den Modelldetails auseinanderzusetzen. Die Pipeline übernimmt automatisch die Vorverarbeitung, Modellinferenz und Nachbearbeitung für Sie.

Sehen wir uns an, wie Sie einige beliebte Aufgaben mit der Pipeline-API verwenden können.

1. Stimmungsanalyse

Bei der Stimmungsanalyse geht es darum, den emotionalen Ton hinter einem Text zu bestimmen, beispielsweise ob er positiv oder negativ ist. So können Sie die Pipeline-API verwenden, um eine Stimmungsanalyse durchzuführen:

pip install 'transformers[torch]'
Nach dem Login kopieren
Nach dem Login kopieren

Ausgabe:

pip install 'transformers[tf-cpu]'
Nach dem Login kopieren
Nach dem Login kopieren

Die Pipeline verarbeitet zunächst den Text vor (Tokenisierung), leitet ihn durch das Modell und verarbeitet schließlich die Ergebnisse nach. In diesem Fall klassifiziert das Modell die Eingabe als POSITIV mit einem hohen Wert von 0,999.

2. Textgenerierung

Transformers bietet auch eine einfache Möglichkeit, Text mit einem vorab trainierten Sprachmodell wie GPT-2 zu generieren. Unten sehen Sie ein Beispiel für die Verwendung der Textgenerierungspipeline:

pip install 'transformers[flax]'
Nach dem Login kopieren

Ausgabe:

brew install cmake
brew install pkg-config
Nach dem Login kopieren

Das Modell generiert drei verschiedene Textvarianten basierend auf der Aufforderung „Ich liebe dich“. Dies ist nützlich, um kreative Inhalte zu generieren oder einen bestimmten Satz zu vervollständigen.

3. Zero-Shot-Klassifizierung

Zero-Shot-Klassifizierung ist eine leistungsstarke Funktion, die es Ihnen ermöglicht, Text in Kategorien zu klassifizieren, ohne das Modell explizit auf diese Kategorien zu trainieren. Sie können beispielsweise einen Text in vordefinierte Beschriftungen klassifizieren, auch wenn Sie das Modell nicht für diesen bestimmten Datensatz trainiert haben.

Hier ist ein Beispiel:

python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))"
Nach dem Login kopieren

Ausgabe:

[{'label': 'POSITIVE', 'score': 0.9998704791069031}]
Nach dem Login kopieren

Das Modell legt nahe, dass der Text höchstwahrscheinlich als Nachrichten mit einem Konfidenzwert von 0,51 klassifiziert wird.

Sie können die Ergebnisse auch mit einem Kreisdiagramm visualisieren, um ein besseres Gefühl für die Verteilung zu bekommen:

from transformers import pipeline

classifier = pipeline("sentiment-analysis", model="distilbert/distilbert-base-uncased-finetuned-sst-2-english")
res = classifier("I love you! I love you! I love you!")

print(res)
Nach dem Login kopieren

Dadurch wird ein Kreisdiagramm angezeigt, das die Wahrscheinlichkeiten für jede Beschriftung darstellt und Ihnen hilft, zu visualisieren, wie das Modell den Text interpretiert.

Harnessing the Power of Hugging Face Transformers for Machine Learning

Abschluss

Die

Transformers-Bibliothek von Hugging Face bietet eine praktische und leistungsstarke Möglichkeit, auf modernste Modelle zuzugreifen und sie für eine Vielzahl von maschinellen Lernaufgaben zu verwenden. Ganz gleich, ob Sie an Stimmungsanalysen, Textgenerierung oder Zero-Shot-Klassifizierung arbeiten, die Pipeline-API vereinfacht den Prozess der Integration dieser erweiterten Modelle in Ihre Projekte.

Mit leicht verständlichen Installationsanweisungen und praktischen Beispielen können Sie in nur wenigen Schritten mit der Nutzung von Transformers beginnen. Der Hugging Face-Modellhub bietet außerdem eine umfangreiche Sammlung vorab trainierter Modelle, mit denen Sie die neuesten Fortschritte im maschinellen Lernen schnell implementieren können.

Das obige ist der detaillierte Inhalt vonNutzen Sie die Kraft von Hugging Face Transformers für maschinelles Lernen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage