2019年6月7日、カナダのモントリオールにあるMILA(Montreal Institute for Learning Algorithms)にて、コンピューター・サイエンス分野のノーベル賞とも言われる「チューリング賞( 2018 ACM A.M. Turing Award )」を受賞したヨシュア・ベンジオ教授にインタビューをおこないました。彼は、いわゆる深層学習の発展に偉大な貢献をしたことから、ジェフリー・ヒントン氏やヤン・ルカン氏と共に、「AIの父」としてよく知られています。インタビューでは、汎用人工知能(AGI)の可能性、データの偏り、GAFAと中国に対する人々の不安、AIの機会とリスク、そしてAIの未来についてうかがいました。これらの質問はどれも、私自身のこれまでのケンブリッジ大学での経験や、これまで出席した多くの国際サミットや国際会議での経験から、疑問に感じていたことでした。
ベンジオ教授は、ジェフリー・ヒントンをはじめとするAI研究の主導者たちがいまや大学を離れてGoogleで働くようになるなか、アカデミアであり続ける選択をしたことでも知られています。モントリオール大学にMILA (Montreal Institute for Learning Algorithms)を設立し、所長としていまなおモントリオール大学に在籍しています。彼は学生の指導や地域コミュニティとの関係に貢献し続けていますが、それは彼が次世代の教育そして人々のAIとの関わりこそがよりよいAI社会を共に創造してゆくために決定的に重要であると信じているからです。それだけに彼はAIの機会だけでなくリスクにも敏感です。彼はElement AIというスタートアップを主宰し、アカデミアとビジネスの世界の架橋にも貢献しています。それでは、ヨシュアと私のインタビューをご覧ください。
GAFAと中国に対する人々の不安
TT:人々はGoogleやAppleのような巨大企業や中国のような国家に対して不安を抱いています。彼らは膨大なデータを所有しているから、やりたい放題になりやしないかと心配しているのです。
YB:そうですね。ただ彼らとしてもおそらく社会的に責任あるエージェントとしてポジティブに思われたいと願っているはずです。ですから、きちんとコミュニケーションをすれば、つまり問題をよく説明し、それについての社会的な議論に取り組めば、社会的な規範を改善することもできると私は楽観的に見ています。これはもちろん物事の進め方を変えるということを意味してもいます。
TT:Valtechの最高データ責任者であるダン・クラインさんも、イギリスのケンブリッジでお会いしたとき中国のことを気にかけていらっしました。というのも、中国はコンピュータ科学者たちがAI開発に利用できる膨大なデータを所有しているのに、イギリスやEUはデータ保護のために限られたデータにしかアクセスできないからです。また、中国企業が国外のコンピュータ・エンジニアに高額の報酬を支払うので、ヨーロッパの優秀なエンジニアが中国に移動しはじめているともうかがいました。
YB:ヨーロッパのエンジニアが中国に移動しているとは思えませんが。
TT:ほんとうですか。もしかするとアメリカのことだったのかもしれません。ちょっと分かりませんが。
YB:あまり変わらないと思いますよ。それに彼らだって必要としていないでしょう。中国にも優秀な科学者やエンジニアはたくさんいますからね。中国の問題は、中国のいまの政治システムが責任ある行動をするだろうという確信をもつことが我々の多くにとって難しいということです。もっとも政府にあまり責任感がないというのは多くの国に言えることです。たとえば気候変動について考えてみれば、合衆国がしてきた行動はかなりひどいものですよね。
TT:そうですね。
YB:ですからたとえ民主主義だからといって政府が正しいことをするとは限らないわけです。どの国も明らかに経済的な理由からグローバルな合意に参加することは利益になるし、もちろん自分たちがよいことをしていると感じていたいはずです。そういうわけで私は国々や人々を対立させるようなことはすべきでないと考えています。
TT:ええ、完全に同意します。
YB:そんなことをしても仕方ありませんからね。
TT:もし先生がカナダでアルゴリズムを開発したら、それは日本でもそのまま機能するものでしょうか、それとも日本向けに適応させないといけないのでしょうか。
YB:その必要はありません。アルゴリズムは非常に一般的なものですから。数学のようなものです。足し算は日本だろうとカナダだろうと同じですよね。
TT:それはそうなのですが、データそのものには文化的な意味がいくらかありますよね。
YB:もちろんそうです。でもそれはデータです。アルゴリズムではありません。
TT:なるほど、そういうことですか。
YB:ですから学習の手順は同じものになりますが、データは異なるものになります。そしてその学習の手順とデータを用いて訓練したシステムは、当然、国ごとに異なるものになるでしょう。
TT:つまりアルゴリズムが一つあれば、それを各々のデータで活用できるというわけですね。
YB:その通りです。
TT:そしてそれはきちんと機能する。
YB:うまく機能します。
AIの機会とリスク
TT:なるほど、素晴らしいですね。みなさん最も優れたAIの専門家の先生に、AIの機会とリスクについて質問したがるでしょうから、もしかすると先生はこの質問にもう話し疲れていらっしゃるかもしれませんが、それでもやはりうかがわせてください。私もまたAIがもたらす新たな機会とリスクの両方を理解することが非常に大切であると考えています。その理解あってこそ、機会を最大化しリスクを最小化することで、AIから社会的な恩恵を得ることができるのです。そこで先生にお尋ねしたいのは、最大の機会は何か、最大のリスクは何か、ということです。もちろんいろいろとたくさんのリスクがあることは心得ているのですが、それでも先生の視点から見て、いちばん懸念されるのは何ですか。
YB:機会という観点からいうと、AIにはソーシャルグッドの大きなポテンシャルがあると考えています。たとえば、健康管理があります。それから、環境問題、つまりこの惑星にとって非常に重大な問題である気候変動との戦いもあります。さらにもう少し先のことになるかもしれませんが、教育もそうでしょう。リスクの面でいうと、真に最大のリスクは、民主主義に対する脅威になることだと考えています。つまり、殺人ドローンであるとか、ソーシャルネットワークを通じた政治的な宣伝効果や影響力であるとか、ごくわずかの人間や企業や国家への権力の集中であるとか、急速な自動化による潜在的な社会不安であるとか、そういったことによって我々の社会組織の安定性が脅かされることになるかもしれないということです。これらはいずれも社会を破綻させかねません。ですから我々がAIを応用するにあたっては、許容できることと許容できないこととの間に引かれた越えてはならない一線に注意深くならなければいけません。
TT:その一線は誰が決めるのでしょうか。
YB:それはとてもよい質問ですね。人間たちが議論を通じてみずからの社会規範を決めるのです。議論はグローバルでなければなりません。国が違えば住む人も異なりますからね。それから大抵の場合は研究者たちが結果に大きな影響を与えることになりがちです。むろん私も科学者たちは議論に参加しなければならないとは思いますが、しかし一般市民も同じように議論に参加するのでなければなりません。
TT:そうですね。賛成です。
グローバルな協調の必要性
YB:最終的にはまともな民主主義国家であればその一線をどこに引くかは民主的に決定されることになるでしょう。この問題の難しいところは、そうした決定が多くの場合、各国がそれぞれ単独で取り扱えるようなものではないことにあります。グローバルな国際的協調が必要なのです。
TT:まったくその通りですね。国連地域間犯罪司法研究所(UNICRI)のAIロボット・センター所長であるイラクリ・ベリゼさんにお会いしたとき、彼はロシアやシリアをはじめとするさまざまな国を訪問しているとおっしゃっていました。そうした国々の政府も一緒に協力することが必須だからです。
YB:それは正しいですね。その通りです。とても大切なことですね。
TT:とても難しいことでもあるでしょうけれども。
YB:そうですね、残念ながら。我々には国際的な協調のよい枠組みがありません。国連は非常に弱い。
TT:そうでしょうか。
YB:ええ、そうですよ。全然、力がありません。
TT:ほんとうですか。国連には力があると思っていたのですが。違いますか。
YB:はい。国連にはほとんど十分な力がありません。私も多少は詳しい問題を一つあげれば、殺人ロボットや自律型致死兵器があります。事務総長はこれが道徳的に嫌悪すべきものでありグローバルな安全保障にとっても危険であると主張し続けています。ところが問題は、国連の意思決定は多くの場合、全会一致の合意がなければならないということです。そのせいでもし1か国でも反対したら条約は承認されないのです。
TT:そうですね。
YB:それでうまくいくわけがありません。問題は、個々の国家が主権や権力をより高次のたとえば国際的な政府のようなもののために失うことを過度に恐れてきたことです。ですが、それをしなければ我々は気候変動問題を解決することはできないでしょう。惑星規模の財政問題を解決することもできないでしょう。AIの濫用が招く危機を防ぐこともできないでしょう。つまり我々がグローバルに協調しなければならない問題は山のようにあるのです。
TT:そうですね。貴重なお話をどうもありがとうございました。
YB:どういたしまして。
謝辞
MILA「人間のためのAI」代表ミリアム・コテさんにとても親切に迎えていただき、「人を幸せにするAI」についての私の文化横断的研究を大いに支援してくださったことを、ここに記して感謝申し上げます。