ブレイン・マッピングが開く世界

latest update
January 09, 2014 14:20 jst
author
junichi ikeda

ニューヨークタイムズが、2013年4月にホワイトハウスによって公表された、脳研究を推進するBRAINイニシアチブの進捗状況を伝えている。

The Brain, in Exquisite Detail
【New York Times: January 6, 2014】

この記事では、Human Connectome Projectと呼ばれるプロジェクトのうち、セントルイスにあるワシントン大学のDeanna Barch教授が率いるプロジェクトチームの様子が伝えられている。

彼女のプロジェクトの被験者は1200人。一人の被験者に対して二日にわたり都合10時間の脳検査を行い、さらにその結果を研究者たちが10時間かけて解析しデータベースに追加される。このデータベースは、健康な脳がもつ構造や活動を示す基礎となる。人格的特徴や認知的特性、遺伝的特徴との相互参照も行えるものだという。そうして、さらに高度な研究の土台となるデータベースを構築する。

脳の結線構造の総体はconnectome(コネクトム)と呼ばれる。connect(接続)とomeによる造語だ。omeというのは「~の全体」を指す接尾語。たとえば、ある生物種の遺伝子(gene)の全体を示すゲノム(genome)や、ゲノムによって発現したタンパク質(protein)の全体を示すプロテオム(proteome)等の言葉が使われている。同様に、connectomeとはconnectの全体、つまりはニューロンの結線/配線構造の総体を指す。

要するに、Human Connectome Projectとはヒトゲノム解析と同様に、脳の結線構造の総体を解明しようとするプロジェクトのことをさす。

その背後には、脳の結線構造の解明が脳のはたらきとしての「こころ」を解明することに繋がるという仮説がある。つまり、物理的な存在としての「脳」に対して、その脳が担うはたらきが「こころ」である、と想定する。その「はたらき」の元になるのが、脳の神経細胞(ニューロン)の結線構造であるとする考え方だ。

ホワイトハウスのBRAINイニシアチブでも、脳内のニューロンの結線構造を明らかにすることで、パーキンソン病やアルツハイマー病などの治療ないし予防に役立てることができるだろう、と強調されていた。アルツハイマー病のような認知症の治療/予防は、程度の差こそあれ高齢化が進む先進諸国においては、介護という社会費用を削減する上でも実は大きな意味を持つ。この点は、死の恐怖からの救済というガンなどの難病への治療方法の開発とは、若干異なる社会的意義を脳研究が持つところだ。

少しおさらいしておくと、2013年4月に、ホワイトハウスはBRAINプロジェクトと称して、ブレイン・マッピングの作製を推進する政策を発表した。ここでいうBRAINとはBrain Research through Advancing Innovative Neurotechnologies(現在も前進を続けるイノベイティブな神経技術を通じた脳の研究)のことをさす。そして、このプロジェクトの実際の推進は、NIH、DARPA、NSF、の三機関が担当するということだった。

今回紹介されているHuman Connectome Projectは、NIHによって5年間で4000万ドル(約40億円)の研究予算が与えられている。具体的には、プロジェクトは大きく二つのコンソシアムに分かれ、一つはMRI技術の改善を目指したもので、ハーバード、マサチューセッツ・ジェネラルホスピタル、UCLAのチームが進めている(MRIは磁気共鳴現象を使った脳の画像化方法で、CTなどと違って放射線を使わないため、さらなる開発が期待されている)。もう一つが、上の記事で紹介されたプロジェクトで、ワシントン大学、ミネソタ大学、オクスフォード大学が担当しているという。

この脳研究プロジェクトに予算を配分するNIHとは、正式にはNational Institutes of Healthという。NIHは(日本の厚労省に相当する)保険福祉省に属する機関で、NIH自身が保健医療に関する研究を行う研究所である―したがって、多くの職員が博士号を持った研究者である―と同時に、アメリカにおける保健医療の政府研究予算の配分機構の役割を担っている。バイオテクノロジーやライフサイエンスの興隆ならびに社会的意義の増大に伴い、単に医療健康分野だけでなく、昨今は、アメリカにおける科学技術の研究開発の一翼を担う機関として注目を集めるようになった。たとえば、ヒトゲノム解析プロジェクトもNIHが発案したものだった。

ちなみに、BRAINプロジェクトの残りの推進役のうち、DARPAは国防総省の研究開発機関であり、前身のARPA時代にARPAnetとしてインターネットを立ち上げたことで有名だ。最近では、DARPA Robot Challengeという自律型ロボットの開発コンテストを主催している。Googleのself-driving carもDARPAチャレンジの中で具体化された(正確には、DARPAチャレンジで優秀な成績を収めたスタンフォード大学のセバスチャン・スランのチームをGoogleが引きぬいた。)一方、NSFは、基礎科学の研究に予算を配分してきた。

このように従来は、DARPAは応用(主には軍用)を目的にした機械・電子・材料工学的な領域(ロボティックスはそれら複数領域の集大成)を、NSFは物理学や情報科学(数学)、あるいは化学・薬学のような基礎的な科学領域を、NIHは医療や生命/生物分野の基礎/応用研究を担ってきたわけだが、情報化以後、相互に担当する研究領域が重なり、結果として共同してホワイトハウスの科学研究イニシアチブの担い手になることが多くなっている(この三者の他にNASAも研究予算の拠出機関として重要な地位を占めている)。

こうした研究領域の相互乗り入れの現状を踏まえると、興味深いのは、ヒトゲノムプロジェクトもそうであったが、このBRAINイニシアチブ、あるいは、Human Connectome Projectにおいても、20世紀後半に花開いたコンピュータ技術ないし電子技術がプロジェクトの推進に大いに役だっていることだ。ニューロンの結線構造のマッピングに利用されるMRIやCTは量子物理(ないし素粒子物理)の理論と、物性物理や電子工学のような応用技術がなければ実現できなかった。実際、MRIやCTは、その開発者にノーベル賞が授与されているが、それほど人類社会にとって画期的な発明だったということだ。MRIやCTによって脳の内部を視覚的に、具体的に捉えることができるようになったことの意義は大きい。あるいは、ニューロン間の膨大な結線構造を実際にデータ処理する上で、ハード、ソフトの両面でコンピュータ技術の発展は重要な役割を果たしている。こうした、応用物理や情報科学の発展があったからこそ、脳の構造解明という巨大な謎に取り組むことができるわけだ。

裏返すと、そうしたチャレンジングな難問が立ちはだかることによって、それらの挑戦に応えようと、情報科学やコンピュータ技術の世界でも具体的な研究や開発が推し進められると期待することができる。個人的には、一連のBRAINイニシアチブの動向が気になるのは、むしろ、こうしたコンピュータ科学の領域へのフィードバックの方にこそある。

おおよそ十年前に完了したヒトゲノム解析プロジェクトは、その後、ライフサイエンスやバイオテクノロジーの領域で具体的な進展が見て取れた。近年ではITに続く事業化やイノベーションの中核として産業経済的にも期待されている。ゲノムという視点は、生物なら全てに関わるため、応用の対象は、医療、薬品、健康、食品、農業、と幅広い。その一方で、Googleのエリック・シュミットもしばしば指摘するように、ゲノム解析装置(シーケンサー)のコストの急落によって、「個人」に照準したサービスないし商品を開発するという方向も遠からず浮上するのだろう。つまり、ターゲットに最適な=「レレヴァント」なものが実現される可能性が増すことになる。おそらくは、ゲノムに続くコネクトムの研究も、そのようなレレヴァントな方向を刺激する側面も徐々に浮上してくることだろう(随分前から、ニューロ・マーケティングという言葉も聞こえている)。

以前読んだ『人間科学』という本の中で、確か、著者である解剖学者の養老孟司は「細胞―遺伝子系」と「脳―言語系」の二つを、人間を理解する上での基盤として挙げていた。ゲノムに続くコネクトムの解明はこの見立てにもかなったものと言える。その意味でブレイン・マッピングというプロジェクトは「人間」の解明にも近づくことになるのだろう。つまり、BRAINイニシアチブの研究は、情報科学的な世界への波及だけでなく、(おそらくは人文学の書き換えにも繋がる)人間科学への示唆を多く含むものになるのだろう(個人的には楽しみなのは、そのような影響が具体的な文化制作物にも結実するところなのだが、それは具体的にその時が来るまで楽しみにすることにしたい)。

それにしても、かつてファジーとともに白物家電でも使われていた「ニューロ」という言葉が、ここまで社会経済的に大きな意味を持つようになったことには軽く驚く。90年代初頭の時点で、神経細胞の結線構造に範をとったニューロコンピューティングは、画像などのパタン認識や音声認識などに適しているとは言われていたが、ビッグ・データの時代になって、Deep Learningのような形で具体的に昨今のAIに利用されるにまで至っている。学習精度を上げるために必要な大量のデータと、それだけの量のデータを学習させるだけの計算資源が地球上に存在するようになったからこそ、一気にフィージビリティをもつようになった方向だ。その意味で、量が質に転ずる場面に私たちは立ち会っているということもできるのだろう。

つくづくイノベーションとは、段階的な変化を見越した、戦略的な未来展望を持ったところで実現されるものなのだと感じる。その意味でもブレイン・マッピング周りの研究は面白い。今回の記事のような、具体的な進捗状況を知ることは、現実的にも知的にも大変興味深い。一歩一歩進むことで次に実現されることもレベルアップする。当然、その先を見据えた、次なる想像力が関わる余地も生まれる。