STI Hz Vol.8, No.4, Part.9:(ほらいずん)セミナーシリーズ「AIとデータで変わる科学と社会」理化学研究所 高橋恒一氏講演録STI Horizon

  • PDF:PDF版をダウンロード
  • DOI: https://doi.org/10.15108/stih.00316
  • 公開日: 2022.12.20
  • 著者: 岡村 麻子、林 和弘
  • 雑誌情報: STI Horizon, Vol.8, No.4
  • 発行者: 文部科学省科学技術・学術政策研究所 (NISTEP)

ほらいずん
セミナーシリーズ「AIとデータで変わる科学と社会」
理化学研究所 高橋 恒一 氏講演録:
-AIは科学の営みをどう変えうるか-

科学技術予測・政策基盤調査研究センター 主任研究官 岡村 麻子
データ解析政策研究室長 林 和弘

概 要

人工知能(AI)の進展やオープンデータの利用可能性が高まるなど、これまでの科学と社会の在り方・前提を変えうる「兆し」が起こりつつある。これらの「兆し」を共有し、科学技術イノベーション政策において近い将来に想定されうる論点を抽出し、中長期的な視点で問題提起するための議論を行うことを狙いとして、国立研究開発法人理化学研究所(理研)革新知能統合研究センター(AIP)と科学技術・学術政策研究所(NISTEP)の連携により、セミナーシリーズ「AIとデータで変わる科学と社会」を開催している。第1回として、2022年3月21日に、「AIは科学の営みをどう変えうるか」と題したセミナーを開催した。

キーワード:AI駆動型科学,科学と社会,新興科学技術のガバナンス,ELSI,科学AIの自律性

1. AI駆動科学とその社会・人間性への影響(高橋 恒一 氏発表概要)

理化学研究所 生命機能科学研究センターチームリーダー/未来戦略室イノベーションデザイナー

私は、理化学研究所生命機能科学研究センターにおける研究活動に加えて、未来戦略室でイノベーションデザイナーも務め、100年後まで見据えた科学について検討する中で、社会、人間性、技術が、どのように影響を及ぼしあうのかについて議論してきた。また、JST未来社会創造事業「ロボティック・バイオロジー」プロジェクトで、ロボットとAIを組み合わせて研究を行う試みを推進している。

将来の研究の仕方:研究のプロトコル化・加速化

将来の研究者はどのように研究をするのか。パソコン上で実験のプロトコルを決め、そのプロトコルを(世界のどこにあっても良いが)実験室に送り、ロボットが実験を行う。実験の手順はすべてプログラムに書かれ、過程における曖昧さが完全に排除される。実験から得られたデータセットは、世界のどこにいても、瞬時に共有される。

これまで、生命科学の分野では、実験をして論文をまとめ、ジャーナルに投稿しレビューを経てとなると、実際に出版されるまで、何か月、何年という単位のサイクルであった。今後は、週という単位で論文化が可能になり、大幅な研究の加速につながる。第三者が同じプロトコルをダウンロードして、同じロボットで通信して、理論家と実験家のより効率的な協業も可能となる。実験を更にアップデートして、次のサイクルの研究を回すことも容易になる。

鍵となるのは、実験のプロトコルをどう記述するかである。ロボットも種類により得手不得手があるので、様々な種類のロボットを試行していくのと、顕微鏡やDNAシーケンサー等の計測機器・計算機がAIと連携して動けるように、統合的な共通の記述言語を開発したい。

AIを実験科学の領域に持ち込む

これまではプログラミングは情報空間の中でビットの操作であった。これからは、細胞、試験管などの目の前にあるものの操作に使えるようにしていくこと、つまり、プログラミングのパラダイムを実世界へ拡張することが必要になる。

AIを実験科学の領域に持ち込むことは、AIの研究にとっても良いことである。実世界は開放系で、完全な制御も測定も困難であるが、まずは閉鎖系に近い状況を作り出すこと、境界条件をきちんと切り出すことで、既存のAI技術を活用することができる。

ラボドロイド化による実験室エキスパートの(たくみ)の技・暗黙知の実装

ラボドロイド(ヒト型ロボット)の開発も進め、実験室エキスパートの匠の暗黙知をロボットに実装している。ロボットはネットワークで接続され、自動顕微鏡で観察した最新のデータをAIサーバーにおく。細胞の状態に応じてモデルベースで予測し、予測に基づき、AIがいつ何をすべきかを判断し、ロボットに次の指示を出すクローズドループシステムである。様々な計測データを用いて実験計画を立て、ロボットで実験をして、データを得ることで変化が生じる。学習を回していくことでアーキテクチャが洗練されていく。

2020年1月にシステム稼働を開始した。その後コロナ禍となり、一時は理研基準で活動制限レベル4(ラボへの立入禁止)までいったが、無人稼働していたので、貴重な細胞サンプルを守ることができた。

科学研究はどこまで自動化できるか?

科学研究のプロセスを情報学的に見ると、まずデータがあって、データの中にどのようなパターンや法則性が潜んでいるのかを考え、方程式やモデル、仮説を導く帰納的なプロセスがある。一方で、仮説命題・方程式・モデルからスタートして、結果を予測し、実験を検証する演繹(えんえき)的なプロセスがある。この他、領域知識と帰納的プロセスによるパターン・法則性をうまく接続してスコープを絞り、演繹的プロセスにおける仮説命題・方程式・モデルを生成していく複合的プロセスもある。

AI駆動型科学では、これらを一つに統合して力強く回していくことと、最終的にはプロセス全体を自動化することが目的である。その前の段階として、科学研究のプロセスをより深く理解することや、科学研究現場の効率化・加速化にもつながる。

AI・ロボットによる研究プロセスの統合と自動化による「第五の科学」

これまでの科学の発展を振り返ると、経験記述・実験を中心とした「第一の科学」、理論を中心とした「第二の科学」、計算(コンピュータシミュレーション)を中心とした「第三の科学」、データ(統計学、機械学習)を中心とした「第四の科学」の系譜があった。ここで目指しているのは、仮説(モデル)を起点としてデータで検証する演繹的なモデル駆動型研究(第二の科学:理論及び第三の科学:シミュレーションに対応)と、データを出発点として新たな仮説を導くことを目指すデータ駆動型の研究(第一の科学:経験・実験及び第四の科学:データに対応)とを統合し、一つのループとして力強く回してゆくこと(第五の科学の確立)である。二つの自動化技術(ロボットによる実験プロセス自動化とAIによる仮説空間の高速探索)を通じた統合を行い、複雑な対象の挙動を説明するモデルを自動で構築することが中心となる。このスタイルをAI駆動アプローチと呼ぶことができる。

現代科学の限界と複雑な対象を複雑なまま扱うAI駆動アプローチ

現代科学では、平衡近辺においては要素の状態が等確率で現れるという仮定のもと、本来は多自由度の系の状態を数学的極限操作により少数自由度で記述している。しかし細胞、高分子、社会システム、生態系、脳など、大自由度・非平衡・非線形の問題はいまだ解けていない。

GoogleのDeepMindの創始者であるデミス・ハサビスは、「数学が物理の謎を解く鍵だったように、AIの利用が生命科学の謎を解く鍵だろう」と言った。数学は、複雑な現象を我々の脳が扱える範囲に切り出して単純な記述にして、全体として予測可能な状況に導いていくやり方である。AIは複雑なものを複雑なまま取り扱うアプローチであり、現代科学の限界を超えていくための一要素として利用価値は高いのではないか。

科学AIの自律性レベルの設定に向けて

アラン・チューリング研究所で開催されている日米英“AI科学グランドチャレンジ”ワークショップ(2020年、2022年)に、私は参加した。「2050年までに自律的にノーベル賞級の発見を行うAIの開発」をAI分野のグランドチャレンジとして提唱している。

それでは科学AIの自律性とはどのようなものか。科学AI発展に向けて、自動運転における自律性レベルの設定のようなものを考えることが重要である。図表1に示すように、レベルゼロは、人間がプログラムを入力して、プログラム処理をするという段階であり、一方で完全に自律的な段階であるレベル6は、人間が介在せず、機械が研究の対象・目的を設定して研究を行う。ここまで行きつくためには相当な時間がかかる。

その間にどのようなレベルを設定するか。現在の案ではレベル1として閉鎖系の解探索。レベル2に実験計画などを行う開放系の解探索。その次に、レベル3、レベル4として仮説生成の段階がある。人間が初期モデルや生成方法を入力するのがレベル3であり、レベル4になると、仮説の形式自体も探索の範囲とする形式自由の仮説生成の段階になる。レベル6の一歩手前のレベル5として研究立案自体を機械が行う段階が設定できる。

重要なことは、自律性レベルが一つ上がることに、レベルゼロでの探索段階から、レベル1~2で実験をロボットと組み合わせて行うようになる段階、さらには、レベル3~4のモデル・知識の生成・記号生成、レベル4~6の意味理解・価値生成へと、どんなブレークスルーが必要であるかが整理できることだ。つまりロードマップとしての機能もある。

事例を紹介すると、レベル2のものとして、例えば無機化学領域におけるAI・ロボット駆動型科学の取組であるリバプール大学のBurgerらの「A mobile robotic chemist注1」がある。700実験を8日間で実行し、人間の科学者に比べて1000倍以上の速度で反応条件を探索し、従来よりも効率の良い新たな光触媒を自律的に発見した。

レベル2のもう一つの事例として、自動実験計画AIとロボットの組合せによるiPS細胞分化誘導条件の発見として、私が神戸アイセンター病院の高橋政代先生らとの共同研究で行ったものがある注2。2億通りの可能性からAIが約150の候補条件を絞込み、ロボットと連携して実験を検証することで、専門家が年単位の時間をかけてきた研究プロセスを月単位に短縮した。

自律性レベル3に当たるものとしては、Kingらによる酵母システム生物学モデルの自動改善がある注3。現在の制御モデルと遺伝子による反応制御の知識から、①実験する遺伝子候補の生成、②ロボットによる自動実験実行、③予測と結果の比較、④代謝経路や制御の見直し、⑤データの蓄積と既存知識の活用、⑥モデルの改善、という機能からなるサイクルを回した。

図表1 科学AIの自律性レベル(案)図表1 科学AIの自律性レベル(案)

出典:講演スライドより
アノマリーとセレンディピティ

一方、過去の革新的な発見の裏には、必ず偶然、アノマリーがあった。経験主義的思考プロセスに含まれる創造性のジャンプというべき機会を、AI科学では実装できるのか。モデル駆動とデータ駆動の結合で、「発見のおどろき」を付与できるのではないか。例えば、予測と結果の情報的距離でアノマリーを形式的に定義し、その距離(ずれ)が大きいと、驚き・新発見と定義する。ロボットによる高品質データがノイズに埋もれたアノマリーをあらわすのではないかと考えている。

AIはその本質において知的労働の自動化技術

それでは、このAI科学が、社会あるいは人間性にどのように影響するのか。AI科学とは、知的労働の自動化技術であると考える。科学研究現場が典型であるが、仮説の生成と検証を繰り返す。パターンの生成と評価の繰り返しであると捉えると、アートやデザインの現場における作業のある種の類型もそうである。AI駆動の考え方は、製品開発、市場調査、行政、人事、インフラ運営なども含む人間の創造的活動領域の多くに展開可能であり、社会のあらゆる分野に波及する。自動化技術としては、人の指示の頻度や直接人間の作業の量が下がれば下がるほど価値が高くなると評価できる。

過去の歴史を振り返ると、産業革命を契機に、技術経済構造の変化により歴史上初めて先進国と発展途上国の分岐が発生した。第一次・二次産業革命は肉体労働の自動化技術である原動機を根本発明(GPT:汎用目的技術)とし、工場が起点であった。AIの本質は知的作業の自動化技術であり、現在足元で進行している今回の産業革命のGPTとなるだろう。そこでは、科学研究とかアート・デザインなどの知的・創造的作業現場を起点とし、再度の先進国の入れ替え戦(第2の大分岐)を引き起こす可能性がある。

次の時代はこれまでのどの時代とも似ていない

中世は職人的手工業、強い人は10人力、権力の中心は貴族や豪傑で、価値観は封建主義であった。近代・現代に入ると大量生産の時代、誰でも同じくらい強くなり、権力の中心は中間層とその出身者であり、価値観は自由意志・人権・民主主義が中心であった。

これからの時代は、知的作業の自動化・産業のソフトウェア化が進むと考えると、ソフトウェア工学の生産性法則と同じように定義できて、強い人は100人力で、それ以外の人は全く何もできないという世界になる。そうすると、国家の目標としては天才(技術者、科学者、経営者)を(そろ)えていくことになる。この新しい時代での価値観がどうなってゆくのか、あるいはどのように作ってゆくのかは我々現代に生きる人間に示された大きな課題だ。

科学と技術の結婚と離婚

科学と技術の関係について歴史を振り返ると注4、古代ギリシャ以来中世まで、技術のパートナーはアートであったが、近代科学の成立により、技術とアートが離婚し、科学と技術が結婚した。自然法則の明証的かつ形式的な記述によって経験科学が経済的価値を生むということは人類史上最大級の発見だったと言えるかもしれない。

今後、統計的機械学習の発展により、「複雑なものを複雑なまま」扱う方法論が発生・確立することにより、機構と原理の明証的かつ形式的な理解なしに予測と制御が成り立つのであれば、つまり理解に基づかなくてもブラックボックスでも出てきた結果が正しいならば、科学と技術の結婚生活はもはや破綻するのではないか。一方、技術とアート・デザインが中世以前の未分化な状態に回帰するかもしれない。また、研究開発の自動化により技術が透明化されて、ヒトの意識から消えると、どのようにという方法論ではなく、何を望むかが価値の中心となる。現代科学の中心の数学とか物理学ではなく、「理解とは何か」「理解そのものの理解」が中心的課題として浮上し、認知科学がその中核的位置を占めるようになるだろう。

人間中心のAI駆動型科学に向けて

一方で、AI駆動型科学による科学の阻害・異質化(Alienation of science)の可能性も指摘されている注5。「科学するAI」への社会における抵抗感を放置すれば、一般社会からの理解が得にくい状況も想定される。このようなハードテイクオフシナリオを回避するためには、自動モデル構築を中心とするクローズドループアーキテクチャを用いて、人の領域知識(モデル)へ都度接地しながら、逐次的に新知識を蓄積していくことが必要となるのではないか(図表2、図表3参照)。

図表2 短期マイルストーン図表2 短期マイルストーン

出典:講演スライドより

図表3 長期シナリオ図表3 長期シナリオ

出典:講演スライドより

2. より良いイノベーションエコシステム形成に向けた新興技術・先端技術の制度設計(標葉 隆馬 氏コメント概要)

NISTEP客員研究官/大阪大学 社会技術共創研究センター准教授

非常に刺激的な、わくわくする話をお聞かせいただいた。AI駆動型科学は社会にどのようなインパクトをもたらすのかという観点からお話ししたい。

競争政策の一部としての倫理的・法的・社会的課題 (Ethical, Legal and Social Issues)

新しい知識、先端的な知識が社会に実装されるためには、安全性の確保はもちろんのこと、プライバシー保護・個人情報保護等の問題の解決が必要である。また、誰にどのようなベネフィットをもたらすのか不明であったり、はからずとも想定していなかった差別や不公平の問題が生じたりすることもある。これらを総称して、倫理的・法的・社会的課題(Ethical, Legal and Social Issues)と呼ばれている。これらに丁寧に対応しないと、せっかく作られた先端的知識が社会の中でうまく活用しきれない。そのため、新興科学技術のガバナンスとして、制度設計のみならず、世論や社会の雰囲気を醸成していくなどの手当てが重要であり、ELSIが各国で競争政策の一部として取り組まれるようになっている。

科学者・技術者による価値・価値観の議論への関与

また、ELSIより、もう少し広いスコープである責任ある研究イノベーション(RRI)というコンセプトで、より良いイノベーションの在り方、イノベーションエコシステムをより良く作るためのガバナンスやプロセスの議論がされている。個別科学技術のELSIも前提としては必要であるが、より踏み込んで、知識生産をどのような形で行うのか、創出された知識や新しい科学技術を使って、どのような価値・価値観や社会ビジョンを実現したいのか、そこを目指した議論をしている。その議論に、研究開発の現場にいる科学者、技術者も積極的に関与しているケースが出てきており、海外の報告書や政策文書でも紹介されはじめているというのが、ここ数年の大きな変化である。

ELSIと研究のバランス

このように新興科学技術のガバナンスが必要となる中、同時に研究としての価値とどうバランスをとるのかが課題となる。一例として、ニューロテックとかブレインテックでは今、倫理学などの研究者も踏み込んだ議論を行っていて、新しい人権・権利(認知的自由、精神的プライバシー、精神の不可侵、心理的連続性、平等・差別)などの提案もされている。新しい技術のベネフィットを享受しつつも、リスク自体は均等に配分されないため、リスクに(さら)されない新しい人権の制度設計が必要である。これまでも議論されてきたことではあるが、自由の尊厳やプライバシー、メンタリティの問題がより先鋭化しており、そこを改めて強調した枠組みである。このようなことを、強力にスピード感を持って議論していかないと間に合わない。そのときに、人文学研究者の道具立て・概念形成を用いて、一緒にやっていく必要があるが、ELSI研究者が現場のスピードに合わせた議論をしていくことができるのか、そこには課題がある。

研究開発の早い段階から、多様な社会課題を考えていくこと、そのために様々な人の話を聞いていくことはますます重要になるが、ネガティブなものも含めたインパクトの評価・可視化が必要である。ネガティブな影響は、それが明らかになるということ自体、知識生産にとっては非常に価値があり、それ自体を評価するシステムも一方で必要である。

AI駆動型科学におけるELSIとして何が想定されるか

それではAI駆動型研究において、ELSIとして何が想定されるか。今後、危険なものも含めて、想像もできないものも出てくるだろうが、まずは想像できる範囲の論点として、適用先ドメインの課題との掛け算で想定していくことが重要である。例えば生命科学領域への展開であれば、身体拡張の問題もあるし、自己決定の問題、優生学的な懸念、差別の問題等々ある。これまでのELSI研究の蓄積から想像できる範囲の論点を見ていくが、漏れが出てくる可能性もあるので、万が一の事態が生じたときに、どのようなパッチを当てていくのか、という議論も一方で必要である。

ELSIにどのように対応していくか。先端知識の生産と活用については、法律や罰則等ではスピード感が間に合わない可能性が高く、学会のガイドラインや研究コミュニティの規範・ルール・モラルといった、罰則ではないが実質的にはきちんと機能して、結果としてより良い倫理的なものになる、というソフトロー的なやり方が良いだろう。その際、研究開発を実際に現場で支えている感覚に根差した形での規範指針の制定が重要であり、民間セクターでの商業化・ビジネス化の視点もまた必要となる。

ELSIに関連して、将来に備えていくためのツール・手法としては、システムに関するレビュー、メディア分析、質問票調査、未来洞察シナリオ、ワークショップなどの参加型手法、研究過程を観察する人類学的な手法などがあり、これらを組み合わせて、論点を可視化していく。そうするとコアな論点や、論点のグラデーション化ができる。あとはそれらを皆で議論し、ガイドラインなどのソフトローの構築にうまく生かすことができる。

3. 全体議論

続くディスカッションでは、佐倉統氏(理化学研究所革新知能統合研究センター(AIP)チームリーダー/東京大学大学院情報学環教授)をファシリテータ―として、活発な議論を行った。

まず、現在起こっている科学研究の変化のスピードに対応するためには、19世紀に確立し、現在は制度疲労を起こしつつある科学システムの変容が不可欠であることが指摘された。また、新興科学技術の社会的影響を踏まえて、新たな時代に合わせた規範・次の価値観を研究者自ら作っていくことが重要である。そのためには、研究開発に取り組む研究者が自らの研究の社会的文脈・位置づけを行う必要があるし、一方でELSI研究者は語り・言葉づくりのタイムラグや現場感覚の希薄性の課題を克服していくことが期待される。その上で、相互理解の機会を作っていくことも望まれよう。これらの変容の前提として、日本社会における根本的な問題である、新しい考え方、若い力を活用するシステムへの切替えもまた必要である。

また、研究資源が豊富な国・地域でAI駆動型研究が進み、それらの恩恵を受ける国・地域が偏在することで、更なる社会的格差の拡大につながるのではという懸念に対して、インターネット時代に比べると群雄割拠状態となり分散化するのではないかという予見が述べられた。一方で、知識生産の地理的集中と社会格差の拡大は連鎖しているという研究もあり、格差により生じる社会的リスクへの懸念が高まっているという議論があった。

最後に、AI駆動型科学により、複雑なものを(要素に還元せず)複雑なまま取り扱えるという新しい科学の認識が生まれつつあるが、これは科学における「理解」の変化を伴い、科学論・科学史の書換えが必要となる可能性が高い。このように現在起きつつある科学の性質やスピードの変化について、科学技術政策に関わる政策担当者・意思決定者の意識が変わるような議論をしていく必要がある、と締めくくられた。


注4 詳細についてはhttps://rad-it21.com/ai/ktakahashi190924/を参照。

注5 呉羽・久木田(2019)は、科学へのAIの導入により人間が判断に至る過程を把握できなくなるという科学の阻害(Alienation)が起こり科学が現象の理解という本来の目的を喪失したり、人間が行う科学とは異なる「異質な科学」化 (Alienation of science)が出現したりする可能性を指摘している。