ホップフィールド・ネットワーク|Hopfield Network

Growth-as-a-Service™︎| Decrypt History, Encrypt Future™

ホップフィールド・ネットワーク|Hopfield Network

定理:ホップフィールド・ネットワーク(Hopfield Network)

歴史的重要性:

人工ニューラルネットワーク研究において初期の代表的な連想記憶モデル。神経科学を物理学の視点(統計力学)からモデル化することで、人間の記憶や学習の仕組みの理解に大きく貢献した。また、機械学習分野の発展に多大な影響を与え、その後のディープラーニングやAI研究への道を切り拓いた。

発表者:

ジョン・ジョセフ・ホップフィールド(John Joseph Hopfield)

生年月日:

1933年7月15日

出生地:

アメリカ合衆国・イリノイ州シカゴ(Chicago, Illinois)

主な論文:

『ニューラルネットワークと物理系の計算能力』(Neural networks and physical systems with emergent collective computational abilities)

発表年:

1982年

発表場所:

アメリカ合衆国・ニュージャージー州プリンストン
(ホップフィールドはプリンストン大学教授として研究・発表)

受賞:

ジョン・ホップフィールドは生物物理学および神経科学分野への貢献により、2001年にディラック賞、2019年にベンジャミン・フランクリン・メダル(物理学部門)などを受賞。

公式(基本モデル):

\[s_i(t+1) = \text{sign}\left(\sum_{j}w_{ij}s_j(t)\right)\]

公式の説明:

  • si​:ニューロンの状態(通常は+1または−1の2値をとる)
  • wij​:ニューロン間の接続重み(対称な行列、wij​、自己接続なし)
  • 各ニューロンが他のニューロンから受け取った情報の総和が閾値を超えるかどうかで、その状態が決定される。繰り返し更新を続けることで安定状態(記憶パターン)に収束する連想記憶モデルである。

親交の深かった科学者:

  • リチャード・P・ファインマン(Richard P. Feynman、物理学者・共同研究者)
  • デイヴィッド・タンク(David W. Tank、神経科学の共同研究者)
  • ジェフリー・ヒントン(Geoffrey Hinton、機械学習・AI分野で影響を与え合った関係)
  • レオン・クーパー(Leon Cooper、神経科学者、共同研究者)