Heim > Backend-Entwicklung > Python-Tutorial > Erstellen eines LLM zum Testen mit Tensorflow in Python

Erstellen eines LLM zum Testen mit Tensorflow in Python

DDD
Freigeben: 2024-10-08 06:13:01
Original
451 Leute haben es durchsucht

Creating an LLM for testing with tensorflow in Python

Hallo,

Ich möchte ein kleines LLM-Programm testen und habe mich dafür entschieden, es mit Tensorflow zu machen.

Mein Quellcode ist unter https://github.com/victordalet/first_llm verfügbar


I - Anforderungen

Sie müssen Tensorflow und Numpy installieren


pip install 'numpy<2'
pip install tensorflow


Nach dem Login kopieren

II – Datensatz erstellen

Sie müssen ein Datenzeichenfolgen-Array erstellen, um einen kleinen Datensatz zu zählen, zum Beispiel erstelle ich:


data = [
    "Salut comment ca va",
    "Je suis en train de coder",
    "Le machine learning est une branche de l'intelligence artificielle",
    "Le deep learning est une branche du machine learning",
]


Nach dem Login kopieren

Sie können einen Datensatz auf Kaggle finden, wenn Sie nicht inspiriert sind.


III – Modell bauen und trainieren

Dazu erstelle ich eine kleine LLM-Klasse mit den verschiedenen Methoden.


class LLM:

    def __init__(self):
        self.model = None
        self.max_sequence_length = None
        self.input_sequences = None
        self.total_words = None
        self.tokenizer = None
        self.tokenize()
        self.create_input_sequences()
        self.create_model()
        self.train()
        test_sentence = "Pour moi le machine learning est"
        print(self.test(test_sentence, 10))

    def tokenize(self):
        self.tokenizer = Tokenizer()
        self.tokenizer.fit_on_texts(data)
        self.total_words = len(self.tokenizer.word_index) + 1

    def create_input_sequences(self):
        self.input_sequences = []
        for line in data:
            token_list = self.tokenizer.texts_to_sequences([line])[0]
            for i in range(1, len(token_list)):
                n_gram_sequence = token_list[:i + 1]
                self.input_sequences.append(n_gram_sequence)

        self.max_sequence_length = max([len(x) for x in self.input_sequences])
        self.input_sequences = pad_sequences(self.input_sequences, maxlen=self.max_sequence_length, padding='pre')

    def create_model(self):
        self.model = Sequential()
        self.model.add(Embedding(self.total_words, 100, input_length=self.max_sequence_length - 1))
        self.model.add(LSTM(150, return_sequences=True))
        self.model.add(Dropout(0.2))
        self.model.add(LSTM(100))
        self.model.add(Dense(self.total_words, activation='softmax'))

    def train(self):
        self.model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

        X, y = self.input_sequences[:, :-1], self.input_sequences[:, -1]
        y = tf.keras.utils.to_categorical(y, num_classes=self.total_words)

        self.model.fit(X, y, epochs=200, verbose=1)


Nach dem Login kopieren

IV – Test

Abschließend teste ich das Modell mit einer Testmethode, die im Konstruktor meiner Klassen aufgerufen wird.

Warnung: Ich blockiere die Generierung in dieser Testfunktion, wenn das generierte Wort mit dem vorherigen identisch ist.


    def test(self, sentence: str, nb_word_to_generate: int):
        last_word = ""
        for _ in range(nb_word_to_generate):

            token_list = self.tokenizer.texts_to_sequences([sentence])[0]
            token_list = pad_sequences([token_list], maxlen=self.max_sequence_length - 1, padding='pre')
            predicted = np.argmax(self.model.predict(token_list), axis=-1)
            output_word = ""
            for word, index in self.tokenizer.word_index.items():
                if index == predicted:
                    output_word = word
                    break

            if last_word == output_word:
                return sentence

            sentence += " " + output_word
            last_word = output_word

        return sentence


Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonErstellen eines LLM zum Testen mit Tensorflow in Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage