Associative Memory

連想記憶の四元数化

はじめに前回の記事 ニューラルネットワークの四元数化 では四元数の MLP を構成しました。MLP を高次元化することは比較的容易で、連想記憶を高次元化する場合は難易度が上がります。それは安定性を保証する必要があるからです。実数の場合では安...
MLP

ニューラルネットワークの四元数化

はじめにニューラルネットワークの複素数値化は一応成功したと言えるでしょう。さらに拡張するというのは自然な研究の流れでしょう。多くの人が思いつくのは四元数です。さらに多様な代数系を求めて、クリフォード代数などが試みられています。今回はモデル拡...
Associative Memory

複素連想記憶の偽記憶

はじめに連想記憶とは学習パターンを記憶する学習モデルです。記憶するとは学習パターンを安定状態に持つということ、エネルギーの言葉で表せば、学習パターンをエネルギーの極小にすることになります。実数型の Hopfield 連想記憶では、パターンベ...
Associative Memory

複素連想記憶の回転不変性

はじめに複素連想記憶に関しては Hopfield Network 複素数値化の例 をご覧ください。オープンアクセスの文献も紹介してあります。反転不変性Hopfield 連想記憶では、パターンベクトル \( \vec{x} \) のエネルギー...
Associative Memory

Hopfield 連想記憶 Projection Rule (2)

今回は projection rule の理論的な補足をします。記憶容量学習ベクトルを並べた行列 \( X=\left( \, \vec{x}^1 \, \cdots \, \vec{x}^P \, \right) \) に対して \( U...
Associative Memory

Hopfield 連想記憶 Projection Rule (1)

学習アルゴリズムの種類これまでに学習則としてヘブ則を解説しました。ヘブ則は記憶容量が非常に小さいために、学習データが極めて少ない場合にのみ使用されます。データが増えた場合に学習できる学習アルゴリズムが幾つか提案されています。代表例が pro...
Associative Memory

Hopfield 連想記憶 偽記憶

偽記憶Hopfield 連想記憶は幾つかの学習パターンを記憶し、ノイズを乗せた学習パターンを与えてノイズを回復する形で利用されます。したがって、記憶容量とともにノイズ除去性能が求められます。ノイズ除去性能に深く関わってくるのが偽記憶という現...
Associative Memory

Hopfield 連想記憶 ヘブ則の記憶容量

前回の学習パターンは1つでした。今回は複数パターンを学習するヘブ則を扱います。複数パターンのヘブ則学習パターンを \( \{ \vec{a}^p = (a_1^p, \cdots, a_N^p)^{\mathrm{T}} \,|\, p=1...
Associative Memory

Hopfield 連想記憶

Hopfield Network の構造を与え、収束することまで証明しました。今回は Hopfield Network の応用として、連想記憶を解説します。Hopfield Network を使った連想記憶を Hopfield Associ...
Associative Memory

Hopfield Network ベクトル化の例

今回はかなり一般的な枠組みの高次元化を例にあげます。入力和の見直し入力和に注目して Hopfield Network を見直します。入力和 \( \displaystyle S_j = \sum_k w_{jk} z_k \) は荷重和と見...