ホップフィールド・ネットワーク|Hopfield Network
定理:ホップフィールド・ネットワーク(Hopfield Network)
歴史的重要性:
人工ニューラルネットワーク研究において初期の代表的な連想記憶モデル。神経科学を物理学の視点(統計力学)からモデル化することで、人間の記憶や学習の仕組みの理解に大きく貢献した。また、機械学習分野の発展に多大な影響を与え、その後のディープラーニングやAI研究への道を切り拓いた。
発表者:
ジョン・ジョセフ・ホップフィールド(John Joseph Hopfield)
生年月日:
1933年7月15日
出生地:
アメリカ合衆国・イリノイ州シカゴ(Chicago, Illinois)
主な論文:
『ニューラルネットワークと物理系の計算能力』(Neural networks and physical systems with emergent collective computational abilities)
発表年:
1982年
発表場所:
アメリカ合衆国・ニュージャージー州プリンストン
(ホップフィールドはプリンストン大学教授として研究・発表)
受賞:
ジョン・ホップフィールドは生物物理学および神経科学分野への貢献により、2001年にディラック賞、2019年にベンジャミン・フランクリン・メダル(物理学部門)などを受賞。
公式(基本モデル):
\[s_i(t+1) = \text{sign}\left(\sum_{j}w_{ij}s_j(t)\right)\]公式の説明:
- si:ニューロンの状態(通常は+1または−1の2値をとる)
- wij:ニューロン間の接続重み(対称な行列、wij、自己接続なし)
- 各ニューロンが他のニューロンから受け取った情報の総和が閾値を超えるかどうかで、その状態が決定される。繰り返し更新を続けることで安定状態(記憶パターン)に収束する連想記憶モデルである。
親交の深かった科学者:
- リチャード・P・ファインマン(Richard P. Feynman、物理学者・共同研究者)
- デイヴィッド・タンク(David W. Tank、神経科学の共同研究者)
- ジェフリー・ヒントン(Geoffrey Hinton、機械学習・AI分野で影響を与え合った関係)
- レオン・クーパー(Leon Cooper、神経科学者、共同研究者)