ホームページ > よくある問題 > 人工ニューラルネットワークアルゴリズム

人工ニューラルネットワークアルゴリズム

(*-*)浩
リリース: 2019-06-18 10:53:10
オリジナル
5302 人が閲覧しました

人工ニューラル ネットワークの多くのアルゴリズム、特に ART ネットワーク、LVQ ネットワーク、コホーネン ネットワーク、ホップフィールド ネットワークの 4 つのアルゴリズムがインテリジェント情報処理システムで広く使用されています。

人工ニューラルネットワークアルゴリズム

これら 4 つのアルゴリズムの詳細な紹介は次のとおりです。

1.適応共鳴理論 (ART) ネットワーク

適応共鳴理論 (ART) ネットワークにはさまざまなスキームがあります。 ART-1 ネットワークには、入力層と出力層の 2 つの層が含まれています。 2 つの層は完全に相互接続されており、接続は順方向 (ボトムアップ) とフィードバック (トップダウン) の両方の方向に進みます。

ART-1 ネットワークが動作している場合、そのトレーニングは継続的であり、次のアルゴリズム ステップが含まれます:

(1) すべての出力ニューロンの場合、すべての出力ニューロンの場合、警告の重みが付けられている場合がすべて 1 に設定されている場合、パターン タイプを表すように指定されていないため、独立ニューロンと呼ばれます。

(2) 新しい入力パターン x を与えます。

(3) すべての出力ニューロンが興奮競争に参加できるようにします。

(4) 競合するニューロンから勝者の出力ニューロンを見つけます。つまり、このニューロンの x・W 値が最大です。トレーニングの開始時、またはより優れた出力ニューロンが存在しない場合、勝者の出力ニューロンが決定されます。ニューロン ニューロンは独立したニューロンであってもよい。

(5) 入力パターン x が勝者ニューロンの警戒ベクトル V に十分類似しているかどうかを確認します。

(6) r≧p、つまり共鳴が存在する場合はステップ(7)に進み、そうでない場合は勝者ニューロンを一時的にそれ以上競争できなくしてステップ(4)に進み、これを繰り返す可能な限り多くの有能なニューロンが存在しなくなるまで処理します。

推奨コース: Python チュートリアル

2.学習ベクトル量子化 (LVQ) ネットワーク

学習ベクトル量子化 (LVQ) ネットワークは、入力変換層、隠れ層、出力層の 3 つのニューロン層で構成されます。ネットワークは、入力層と隠れ層の間で完全に接続され、隠れ層と出力層の間で部分的に接続され、各出力ニューロンは隠れニューロンの異なるグループに接続されます。

最も単純な LVQ トレーニング手順は次のとおりです。

(1) 参照ベクトルの初期重みを事前設定します。

(2) ネットワークにトレーニング入力パターンを提供します。

(3) 入力パターンと各参照ベクトル間のユークリッド距離を計算します。

(4) 入力パターンに最も近い参照ベクトル (つまり、勝利した隠れニューロンの参照ベクトル) の重みを更新します。勝利した隠れニューロンが、入力パターンと同じクラスを持つ出力ニューロンに接続されたバッファーに属している場合、参照ベクトルは入力パターンに近づくはずです。それ以外の場合、参照ベクトルは入力モードを終了します。

(5) ステップ (2) に進み、すべてのトレーニング パターンが正しく分類されるか終了基準が満たされるまで、新しいトレーニング入力パターンを使用してこのプロセスを繰り返します。

3.コホーネン ネットワーク

コホーネン ネットワークまたは自己組織化特徴マップ ネットワークには 2 つの層が含まれており、1 つの入力バッファ層は入力パターンの受信に使用され、もう 1 つは出力層です。配列すると、各出力ニューロンはすべての入力ニューロンに接続されます。接続重みは、既知の出力ニューロンに接続された参照ベクトルのコンポーネントを形成します。

Kohonen ネットワークのトレーニングには次の手順が含まれます:

(1) すべての出力ニューロンの参照ベクトルに対して小さなランダムな初期値を事前に設定します。

(2) ネットワークにトレーニング入力パターンを提供します。

(3) 勝者の出力ニューロン、つまり参照ベクトルが入力パターンに最も近いニューロンを決定します。参照ベクトルと入力ベクトル間のユークリッド距離は、距離測定としてよく使用されます。

(4) 勝者ニューロンの参照ベクトルとその近隣の参照ベクトルを更新します。これらの参照ベクトルは、入力ベクトルに近い(参照される)ものです。勝利した参照ベクトルの調整は最も大きくなりますが、遠く離れたニューロンでは、トレーニングが進むにつれてニューロンの近傍のサイズが相対的に減少します。トレーニングの終わりまでに、勝利したニューロンの参照のみが存在します。ベクトルは調整されます。 。

4.ホップフィールド ネットワーク

ホップフィールド ネットワークは、通常、バイナリ入力 (0 または 1) とバイポーラ入力 (1 または -1) のみを受け入れる典型的な再帰ネットワークです。これには単一のニューロン層が含まれており、各層は他のすべてのニューロンに接続され、再帰的な構造を形成しています。 ###

以上が人工ニューラルネットワークアルゴリズムの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート