ホームページ > バックエンド開発 > Python チュートリアル > Tensorflow の tf.train.batch 関数について

Tensorflow の tf.train.batch 関数について

不言
リリース: 2018-04-24 14:13:43
オリジナル
5764 人が閲覧しました

この記事では主に Tensorflow での tf.train.batch 関数の使用方法を紹介し、参考として提供します。一緒に見に来てください

ここ2日間、tensorflowでデータを読み込むためのキューを見てきましたが、正直、非常にわかりにくいです。おそらく私にはこの分野の経験がなく、最初は Theano を使用してすべてを自分で書きました。この 2 日間、書類や関連情報を検討した後、私は中国の後輩たちとも相談しました。今日はちょっとした気持ちがあります。簡単に言うと、計算グラフはパイプラインからデータを読み込みます。入力パイプラインは既成のメソッドを使用し、読み込みにも同じメソッドが使用されます。複数のスレッドを使用するときにパイプからのデータの読み取りが混乱しないようにするために、この時点での読み取り時にスレッド管理関連の操作が必要です。今日、私はラボで簡単な操作を行いました。それは、順序付けされたデータを与え、それが順序付けされているかどうかを確認するというものでした。それで、コードを直接与えました。メソッド。デフォルトはシャッフルです。

それに、このコードにコメントしたいと思います

1: このメソッドが指定されたエポックを実行するときに、slice_input_Producer メソッドが動作するエポック数を制御するパラメーター 'num_epochs' があります。 OutOfRangeRrror は、トレーニング エポックの制御に役立つと思います。

2: このメソッドの出力は 1 つの画像であり、この 1 つの画像を正規化やクロップなどの tensorflow API で操作できます。この単一の画像がバッチ メソッドにフィードされると、トレーニングまたはテスト用の画像のバッチが受信されます。[例、ラベル] はサンプルとサンプル ラベルを表します。サンプルおよびサンプルラベルになります。batch_size は、返されるバッチサンプルセット内のサンプルの数です。容量はキュー内の容量です。これは主に

tf.train.shuffle_batch([example, label],batch_size=batch_size,capacity=capacity,min_after_dequeue)の順にバッチに結合されます。ここでのパラメータは上記と同じ意味を持ちます。違いは、パラメータ min_after_dequeue です。このパラメータは、capacity パラメータの値よりも小さいことを確認する必要があります。そうでないと、エラーが発生します。これは、キュー内の要素がそれよりも大きい場合、不規則なバッチが出力されることを意味します。つまり、この関数の出力結果は、順序どおりに配置されたのではなく、バラバラに配置されたサンプルのバッチです。


上記の関数の戻り値はすべてバッチのサンプルとサンプルラベルですが、1 つは順序どおりで、もう 1 つはランダムです


関連推奨事項:

tensorflow フラグを使用してコマンドラインパラメーターを定義する方法

Tensorflow のセーバーの使用法



以上がTensorflow の tf.train.batch 関数についての詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート