Trainierte TensorFlow-Modelle speichern und wiederherstellen
TensorFlow bietet nahtlose Funktionen zum Speichern und Wiederherstellen trainierter Modelle, sodass Sie Ihre Modelle beibehalten und wiederverwenden können verschiedene Szenarien.
Speichern der Modell
Um ein trainiertes Modell in TensorFlow zu speichern, können Sie die Klasse tf.train.Saver verwenden. Hier ist ein Beispiel:
import tensorflow as tf # Prepare placeholders and variables w1 = tf.placeholder(tf.float32, name="w1") w2 = tf.placeholder(tf.float32, name="w2") b1 = tf.Variable(2.0, name="bias") feed_dict = {w1: 4, w2: 8} # Define an operation to be restored w3 = tf.add(w1, w2) w4 = tf.multiply(w3, b1, name="op_to_restore") sess = tf.Session() sess.run(tf.global_variables_initializer()) # Create a saver object saver = tf.train.Saver() # Run the operation and save the graph print(sess.run(w4, feed_dict)) saver.save(sess, 'my_test_model', global_step=1000)
Wiederherstellen des Modells
Um ein zuvor gespeichertes Modell wiederherzustellen, können Sie den folgenden Prozess verwenden:
import tensorflow as tf sess = tf.Session() # Load the meta graph and restore weights saver = tf.train.import_meta_graph('my_test_model-1000.meta') saver.restore(sess, tf.train.latest_checkpoint('./')) # Access saved variables directly print(sess.run('bias:0')) # Prints 2 (the bias value) # Access and create feed-dict for new input data graph = tf.get_default_graph() w1 = graph.get_tensor_by_name("w1:0") w2 = graph.get_tensor_by_name("w2:0") feed_dict = {w1: 13.0, w2: 17.0} # Access the desired operation op_to_restore = graph.get_tensor_by_name("op_to_restore:0") print(sess.run(op_to_restore, feed_dict)) # Prints 60 ((w1 + w2) * b1)
Weitere Szenarien und Anwendungsfälle finden Sie in den Ressourcen in den bereitgestellten Antworten, die sich eingehender mit dem Speichern und Wiederherstellen von TensorFlow befassen Modelle.
Das obige ist der detaillierte Inhalt vonWie kann ich trainierte TensorFlow-Modelle speichern und wiederherstellen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!