AIが難聴を解決するまでにはまだ時間がかかるが、その過程には「聴覚医療を再構築する」機会がある。英ユニバーシティカレッジロンドンの神経工学者であるNicolas Lesica氏と、米カリフォルニア大学アーバイン校聴覚研究センターの耳鼻科医Fan-Gang Zeng氏は、Nature Machine Intelligence誌に寄せた論評の中で「AIと聴覚医療の未来」に言及している。
著者らは、人間の聴覚システムについて説明し、それを拡張するAIの可能性を示した後、AI開発者と聴覚専門家が協力して「真の人工聴覚システムを設計するためのステップ」を示している。特に、人工聴覚システムが考慮すべき、聴覚における3つの重要な側面に取り組むことが課題であるという。
1. 時間的処理:最近の研究によって、音を認識するための専用の神経回路が存在することが示唆されている。しかし、数ミリ秒単位の入力を処理するメカニズムは、異なる脳領域に分散したネットワークの複雑な相互作用に依存している可能性が高い。今後、自然な音理解と聴覚構築を実現するためには、このような研究をさらに進める必要があることを指摘する。
2. マルチモーダル処理:自然の聴覚システムを忠実に再現するためには、人工ニューラルネットワークは「最終的には、他の感覚運動モダリティを統合し、脳と同じようにさまざまなタスクを実行できる柔軟性を備えていなければならない」とする。マルチモーダルな特性を単独でモデル化しようとしても、現象をコンパクトに説明する以上の有用性は期待できないとした上で、適切な機能を持つネットワークを様々なタスクで訓練すれば、脳がそうであるように、マルチモーダルな柔軟性が現れるだろうと予測している。
3. 可塑性:近年の研究からは、人工内耳の効果は「その技術がどれだけ神経可塑性を実現できるか」にかかっているという仮説が立てられている。Zeng氏らは、人工内耳の性能が高ければ高いほど、「外耳道を通じて聴覚信号を受け取る新しい方法を脳が採用する」のを助ける点を指摘する。
著者らは結論として、AI研究者と聴覚研究者の共同を呼びかけており、積極的なコラボレーションが聴覚医療の未来を形作る点を強調している。
関連記事: