英オックスフォード大学などの研究チームは、「学習時に脳がニューロン間の結合を調整する仕組み」を明らかにした。この新たな洞察は、脳ネットワークにおける学習に関する将来研究の指針となり得、さらに高速で頑健な学習アルゴリズムを導く可能性がある。
生物が持つ脳は、現在の機械学習システムよりも優れている面がある。例えば、我々は新しい情報を一度見るだけで学習できるが、AIシステムは同じ情報を何百回も学習させる必要がある。さらに、我々は既に持っている知識を維持したまま新しい情報を学ぶことができるが、人工ニューラルネットワークで新しい情報を学ぶと、既存の知識に干渉し、急速に劣化してしまうことがある。研究チームは、ニューロンの挙動とニューロン間のシナプス結合の変化を記述する、数学的モデルを調査した。そして、これらの情報処理モデルを分析、シミュレートした結果、人工ニューラルネットワークとは根本的に異なる学習原理を採用していることを明らかにした。
人工ニューラルネットワークでは、外部アルゴリズムがエラーを減らすためにシナプス結合を修正しようとするのに対し、人間の脳はシナプス結合を調整する前に、まずニューロンの活動を「最適にバランスの取れた構成」に落ち着かせることを提案している。Nature Neuroscienceに掲載された研究論文では、この新しい学習原理を「prospective configuration」と名付けている。研究者らはコンピューター・シミュレーションにより、このprospective configurationを採用したモデルは、自然界で動物や人間が通常直面する課題において、人工ニューラルネットワークよりも速く、より効果的に学習できることを示した。今後、prospective configurationを高速かつ少ないエネルギー消費で実行できるような、新しいタイプのコンピューターや、脳から着想を得た専用ハードウェアの開発に至る可能性がある。
参照論文:
Inferring neural activity before plasticity as a foundation for learning beyond backpropagation
関連記事: