arrow twitter facebook twitter
Thinking about AIAIについて考える

AI研究のパイオニア、ヨシュア・ベンジオ教授のインタビュー(前編)

2019年6月7日、カナダのモントリオールにあるMILA(Montreal Institute for Learning Algorithms)にて、コンピューター・サイエンス分野のノーベル賞とも言われる「チューリング賞( 2018 ACM A.M. Turing Award )」を受賞したヨシュア・ベンジオ教授にインタビューをおこないました。彼は、いわゆる深層学習の発展に偉大な貢献をしたことから、ジェフリー・ヒントン氏やヤン・ルカン氏と共に、「AIの父」としてよく知られています。インタビューでは、汎用人工知能(AGI)の可能性、データの偏り、GAFAと中国に対する人々の不安、AIの機会とリスク、そしてAIの未来についてうかがいました。これらの質問はどれも、私自身のこれまでのケンブリッジ大学での経験や、これまで出席した多くの国際サミットや国際会議での経験から、疑問に感じていたことでした。

ベンジオ教授は、ジェフリー・ヒントンをはじめとするAI研究の主導者たちがいまや大学を離れてGoogleで働くようになるなか、アカデミアであり続ける選択をしたことでも知られています。モントリオール大学に MILA (Montreal Institute for Learning Algorithms)を設立し、所長としていまなおモントリオール大学に在籍しています。彼は学生の指導や地域コミュニティとの関係に貢献し続けていますが、それは彼が次世代の教育そして人々のAIとの関わりこそがよりよいAI社会を共に創造してゆくために決定的に重要であると信じているからです。それだけに彼はAIの機会だけでなくリスクにも敏感です。彼はElement AIというスタートアップを主宰し、アカデミアとビジネスの世界の架橋にも貢献しています。それでは、ヨシュアと私のインタビューをご覧ください。

AGIへの道のり

ヨシュア・ベンジオ(YB):どうぞ何でもお尋ねください。

高橋利枝(TT):よろしくお願いします。貴重なお時間をいただき、どうもありがとうございます。まずはAGIについて教えていただけますか。

YB:よろこんで。

TT:先生の動画をいくつか拝見したところ、先生はAGIについてとてもポジティブでいらっしゃるようにお見受けしたのですが。

YB:いいえ、そうではありません。

TT:違うんですか。動画からはそのようにうかがわれたのですが。

YB:私は人間と同等に知的な機械をつくる可能性についてはポジティブなのですが、完全に汎用の知能となると話は別です。人間がそれをどのように使うかを考えると、ポジティブにはなれないんです。我々はあまり賢くありませんからね。

TT:なるほど。ではAGIの実現に向けた先生のロードマップを教えていただけますか。

YB:もちろんです。あくまで私が選んだ一つの探究の道ですが、お話ししましょう。

TT:私はしばらくケンブリッジで過ごしたことがあるのですが、ケンブリッジ大学人工知能グループ代表のジョン・ドーグマン教授のように、AGIはSFがもたらした幻想にすぎないという研究者もいますよね。彼は、たった一つの神経細胞すら理解できていない我々に、どうしてAGIなんてつくることができるのか、とおっしゃっていました。

YB:そうですね。でも私は彼には賛成できません。

TT:先生はどのようにお考えですか。

YB:私はこれまでAIと機械学習を数十年にわたって研究してきましたが、その間にかなりの進歩があったと強く感じています。とくに今日では非常に強力なシステムを構築するためのいくつかの原理が明らかとなっています。もちろん人間と同等のAIにはまだ遠くおよばないことは認めますし、そこにたどり着くまであとどれくらいの距離があるのかさえ分かりません。ですから私は人間と同等のAIを実現するまでもう5年だとか50年だとか、そういったことについては何も言いません。どれくらいの時間がかかるのかは分かりません。でも、人間の脳は一つの機械なのです。それは非常に複雑な機械で、我々はそれを十分に理解してはいませんが、それでも我々にその原理を解明できないと信じるに足る理由はありません。

TT:なるほど。DeepMindのトム・エヴェリットさんは、AGIを数十年、おそらく20年か30年のうちに実現できるとおっしゃっていました。そう先のことではないと。

YB:彼はどうしてそれが分かるのでしょうか。

TT:どうしてでしょう。私も訊いてみたのですが、答えてくれませんでした。

YB:誰にも分かりませんよ。

TT:誰にも分からない。たしかにそうですね。ノーベル物理学賞を受賞したアメリカの理論物理学者、シェルドン・リー・グラショー教授は、我々がAGIを手にすることはないとおっしゃっていました。あるいは、もし我々がそれを手にするとしても、それはずっとずっと遠い先のことだろうと。

YB:そうかもしれませんね。ですから我々には分からないのです。10年後かもしれないし100年後かもしれない。

TT:そうですか。

YB:はい。

TT:なるほど。

YB:そういうことを知るのは不可能なんです。私の友人ヤン・ルカンさんから聞いた素敵な比喩があります。研究者としての我々の歩みは、山を登っているようなもので、頂上まで登ってみてはじめて、さらにたくさんの山々がその先に控えていたことが見えてくるのです。

TT:その通りですね。

YB:そしていま見えている景色からだけでは他にどんなもっと高い山々が隠れているかはけっして分からないわけです。

TT:なるほど。

YB:ですから、我々がいま取り組んでいる問題が、人間と同等のAIに到達するための最後の問題になるかもしれないし、いまは誰も気づいてさえいないもっと大きな問題がまだいくつも待ち構えているかもしれない。そういうわけで、私は人間と同等のAIがいつ実現できるかとか、あと何年かかる、あと何十年かかる、といったことは知りえないだろうと考えているんです。

TT:そういうことなんですね。ちなみに、AGIを実現するにはまだブレイクスルーが必要だという人たちもいますよね。いまのアプローチからのある種のパラダイムシフトが必要であると。先生は深層学習でどこまで行けるとお考えですか。この道をそのまま進み続ければAGIにまで到達できるのでしょうか。

YB:先ほど申し上げたように、我々は深層学習についての研究を通じていくつかの非常に重要な原理を理解することができたわけですが、私はそれらの原理はこれからも残り続けるだろうと信じています。ですが、さらなる前進は必要です。それをこれまでに解明されたことと組み合わせていかなければいけません。私の考えでは、深層学習はこのまま残るでしょうが、現状これだけでは明らかに不十分で、たとえば人間がしているような高次認知はできません。我々は心理学者がシステム1と呼ぶ認知についてはかなりの進歩を遂げてきました。つまり直観的な課題に関するものです。ここには我々がこれまでに発見してきた深層学習の中心的な考え方の一つがあります。分散表象という考え方ですね。私はこの考え方は残り続けるだろうと非常に強く確信しています。なにしろこれはじつに強力ですから。

AIの未来

TT:先生はこの分野の最先端にいらっしゃいますが、その先生の目に未来はどう見えていますか。

YB:私には未来は見えませんよ。

TT:ほんとうですか。先生なら我々のまだ見ぬ未来が見えているかと思ったのですが。

YB:そんなことはありませんよ。もっとも、私にはいくつかの研究目標があり、それを信じることで探究の方向性を選択してはきました。そういう意味でいうと私のビジョンは、いまの機械学習システムに大きく欠けているのは人々が常識と呼ぶものであるということになります。たとえば2歳児や猫の知能について考えてみると、我々はいまのところまだそれすらも機械で実現できていません。ましてやいまの最新のシステムがどんな問題に躓いているかを鑑みるに、言語のようなことについては考えはじめられてすらいないと言ってよいでしょう。そのような常識的な理解には、たとえば原因と結果を理解したり発見したりするといった、いまの機械学習にはできないことが含まれています。そこには世界の広い理解が含まれているのです。特定の専門的な課題だけではないのです。そこにはこの世界のモデルを教師なしの探究で発見することのできる能力が含まれます。今日の機械学習は教師あり学習にかなり依存しており、そこでは高次概念はすべて教師役の人間やラベルづけをする人間によって定義されています。いまフロンティアとなっている知能の側面は数多くあり、それを探究しているのも私一人ではありませんから、数年のうちに大きな変化が起こる可能性もありますが、確かなことを言うのは難しいですね。

TT:先生の目標は人間や超人を創造することですか。

YB:いいえ。私の目標は知能の一般原理を理解することです。つまり、どうしたらエージェントは知的になるのかということです。私を含めて多くの人たちは、物理法則に相当するような、知能の法則を発見したいと思っているのです。

TT:なるほど。

YB:そしておそらくこの原理は、人間にも、動物にも、知的なエイリアンにも、そして我々がつくる機械にも、適用できるものであるはずです。つまりそれはとても一般的な原理であって、機械学習はすでにそうした原理のいくつかを確立しているけれど、まだ重要な原理が欠けている。そいうふうに私は信じています。

TT:でもすでに単純な原理は発見されているというわけですね。

YB:ええ、いくつかはですが。もっともその背後には、あるメタ原理、ある科学的仮説があります。それは、知能は少数の単純な原理で説明できるはずであるというものです。我々はこの仮説が正しいかどうか分かりません。ですがここ数年の深層学習の成功はこの仮説のよい裏付けとなっています。というのも深層学習というのは数少ない非常に単純な原理にもとづいているので、この仮説と整合的なのです。深層学習で訓練したシステムがみせる高度な複雑性は、学習メカニズム自体のなかに含まれているものではありません。それはデータのなかにあるのです。このデータというものが、現行の訓練されたAIシステムにおける情報の圧倒的な部分を占めています。一方で、学習の手順をはじめとする原理の部分が占めるのは、相対的に言って、ほとんどわずかな情報だけなのです。

データの偏りと人間のためのAI

TT:先生は、知能は知識に由来し、知識はデータから獲得される、とおっしゃっていますよね。

YB:その通りです。

TT:そうするともしデータが偏っていた場合どうなってしまうのでしょうか。ほとんどのデータは男性でコーカソイドの中年に偏っていると批判する社会科学者の方たちもいますよね。

YB:おっしゃる通りです。

TT:ですから、もし若い有色人種の女性がたとえば保険を申し込んだ場合、AIにはそのような申請者についてのデータが十分にないがために拒否するという可能性もあるわけですよね。

YB:はい、まったくその通りです。この問題には技術的な解決策と社会的な解決策の両方が必要であると考えられます。我々は社会的規範を変えなければなりません。つまり、たとえば商品開発する企業が技術の問題や物流の問題に解決支援を利用する際には、偏見や差別を減らすと認められたデータの収集方法やその記述と管理の方法そして学習アルゴリズムを使用しなければならないようにするということです。そういう技術を使用することはおそらく可能ですが、より重要なのは企業や政府がそれを使用するように確約する必要があるということですね。

TT:だからこそ先生はAIの問題には社会科学者と自然科学者が共に協力することが大切であるとお考えなのですね。

YB:はい。

TT:私は先生がここMILAで掲げていらっしゃる「人間のためのAI」という考え方がとても気に入っています。

YB:そうですね。AI研究者はAIが社会実装されるときに関係してくるかもしれない社会的な問題に気づけていない可能性があります。ですから、この考え方は、たとえば大規模な社会実装のように、人々に近いところで利用されることになる製品の研究開発をおこなっている人たちにとっては、とりわけ重要なものだと思います。

モントリオール大学MILA『人間のためのAI』 ディレクター:Myriam Côté先生

後編はこちら

SHARE