数年前,エール大学ハスキンス研究所のアルヴィン・リバーマンらが,テキストを音声に変換する装置を開発しようと試みた。戦争で視力を失った退役軍人が本や雑誌を「読める」ようにするのが目的だったが,残念なことに,できあがった装置から発せられる音を退役軍人たちはなかなか聞き取れなかった。その知覚の遅さは耐えがたいほどで,人間の生の音声をゆがめたものを聞き取るよりずっと遅いぐらいだった。この観察結果から,エール大学のチームは発話の音声知覚に関する1つの仮説を提出した。発話音は音として理解されるというよりも,むしろ「調音ジェスチャー」として理解される——つまり,話すのに必要な意図された運動計画として理解されるというのである。この「音声知覚の運動指令説」が言っていることは要するに,私たちの脳は話をしている自分自身をシミュレートする(!)ことによって他人の発する音声を知覚している,ということである。
マルコ・イアコボーニ 塩原通緒(訳) (2009). ミラーニューロンの発見:「物まね細胞」が明かす驚きの脳科学 早川書房 pp.131-132
PR