AIについて学ぶLearning about AI
- AIってなに?
- AIの
チャンスとリスク
- Q.01
個人情報って何?
- Q.02
AIに関する原則やガイドラインは何のためにあるの?
- Q.03
AIが事故を起こしたら誰に責任があるの?
- Q.04
AIも人間と同じように権利をもてるの?
- Q.05
情報ってなに?
- Q.06
トランスヒューマニズムってなに?
- Q.07
サイボーグってなに?
- Q.08
スコアリングってなに?
- Q.09
AIってなに?
- Q.10
AIってどんなものに使われてるの?
- Q.11
AIにできないことはあるの?
- Q.12
AIって人間の仕事を奪っていくの?
- Q.13
AIって道徳がわかるの?
- Q.14
AIっていつからあるの?
- Q.15
AIって感情があるの?
Q.個人情報って何?
個人情報とは、名前や生年月日などにより特定の個人(例えば、竈門炭子さん、我妻栄一くん)についての情報だとわかる情報のことです。例えば、学校の成績や健康診断の結果などが、個人情報にあたります。今日の社会では、政府や企業により人々のさまざまな個人情報が集められ、データベース化されてコンピュータにより利用されたり、他の企業に提供されるようになっています。AIも、データベースに含まれる個人情報を学習したり、分析するなど、個人情報を活用することがあります。個人情報を適切に活用することで、私たちの生活をより便利で豊かにしたり、より安全で健康にすることが期待されますが、反面で、個人情報が不適切に利用されると、個人のプライバシーが脅かされたり、不当な差別が生じるおそれもあります。そこで、個人情報保護法では、個人の権利を守るために、個人情報を扱う役所や企業に個人情報を適切に扱うように、さまざまな義務を課しています。
Q.AIに関する原則やガイドラインは何のためにあるの?
近年では、日本でも、外国でも、AIに関するさまざまな原則やガイドラインが定められています。例えば、日本では、総務省のAIネットワーク社会推進会議が「AI開発ガイドライン」や「AI利活用ガイドライン」をつくり、内閣府の有識者会議が「人間中心のAI社会原則」を定めています。国際的にも、先進国の加盟する国際機関であるOECDと主要国の参加する国際会議であるG20で「AI原則」が合意されています。これらの原則・ガイドラインでは、おおむね、AIの開発者や利用者に、透明性、人間によるコントロール、セキュリティ・安全の確保、プライバシーの尊重、人間の尊厳と個人の尊重などが求められるようになっています。これらの原則・ガイドラインは、法的な強制力を伴うものではありませんが、AIの開発者や利用者がこれらの原則・ガイドラインを意識してAIを開発したり利用することで、人々が信頼できるAIが社会に広がることが期待されます。
Q.AIが事故を起こしたら誰に責任があるの?
AIが組み込まれたロボットや自動運転車が事故を起こしてしまったら、誰が責任を負うのでしょうか?今の日本の法律では、自動車の運転により事故が起きて人が死傷した場合には、ドライバーに過失があれば、ドライバーが刑罰を科されることがあります。また、自動車のオーナーらも、被害者に損害賠償を支払う責任を負うことがあります。また、仮に自動車に欠陥があり、その欠陥により事故が起きて他人に被害が生じた場合には、製造物責任法という法律により、自動車のメーカーも、被害者に損害賠償を支払う責任を負うことがあります。それでは、(レベル4以降の)AIの自動運転により事故が起きた場合はどうなるのでしょうか。この場合、人間のドライバーが運転しているわけではありませんので、ドライバーに責任を取らせることはできませんが、今の日本の法律でも、自動車のオーナーなどに被害者に対して損害賠償を支払う責任を負わすことができる可能性はあります。一方、AIやそれを組み込んだ自動運転車に欠陥があり、その欠陥により事故が起きて他人に被害が生じた場合には、製造物責任法により、自動車のメーカーが責任を負う可能性もあります。いずれにせよ、今の法律では、AIの自動運転による事故が起きた場合に車のメーカーやオーナーがどのような責任を負うことになるのか、それほど明確ではなく、また責任の分担のバランスが適切かどうか、改めて検討が必要になっており、今後の社会におけるAIの発展と普及を見据え、法律を見直していくことも求められるでしょう。
Q.AIも人間と同じように権利をもてるの?
今の日本の法律では、AIは、人間と同じように権利をもつことは想定されていません。人間がもっている権利にもさまざまなものがありますが、思想・良心の自由やプライバシーなど人権は、人間だけが、もう少し正確にいうと個人だけがもつことのできる権利といえます。一方、人間がもっている権利の中には、所有権や著作権など、個人だけでなく、会社など法人ももつことができるものもあります。法人とは、現実の人間ではないものの、法律上、人間と同じように権利と義務をもつことのできる主体のことです。会社や学校法人などがその例です。仮にAIを一種の法人だと考えれば、AIも、会社などと同じようにさまざまな権利や義務をもつことができそうです。実際、欧州議会では、将来的にAIが組み込まれた高度なロボットを法人にするというアイディアを、ロボットによる事故が起きた際の責任問題を解決するための一つの選択肢として示す報告書が出されています。今の日本にはAIを法人とする法律はありませんが、将来的にはそのような可能性も考えられるかもしれません。とはいえ、仮に将来、AIが財産を所有したり、事故の責任を負うようになったとしても、AIにプライバシーや選挙権など、人間だけに認められてきた権利を認めることは、人間を中心とするこれまでの法のあり方全体を変えてしまうことになりかねませんので、慎重な検討が必要でしょう。
Q.情報ってなに?
情報というと、すぐさまコンピュータをイメージする人も多いでしょう。実際、情報は、コンピュータで処理するデータのことだと思い込んでいる人も多くいます。
しかし、それは情報のほんの一部です。
かつて情報社会と最初に言われはじめたとき、コンピュータはまだ普及していませんでした。新聞やテレビなどのマスメディアが主流になっていく社会のことを情報社会といい、マスメディアは情報を扱っているところだと考えられました。また情報リテラシーといったときも、コンピュータの使い方だけでなく、本を使った調べ方なども入ります。このように情報といっても、必ずしもコンピュータに限ったものばかりではないのです。
そもそも情報は、実は、生き物の価値と密接に関係しているのですが、そのあたりのこともぜひ調べてみてほしいと思います。
Q.トランスヒューマニズムってなに?
みなさんは、生きているなかで限界を感じることがあるでしょうか。努力次第で、限界を突破できることもあるでしょう。もっと速く走ったり、もっと勉強ができたりするかもしれません。
でも、手足だけで空を飛んで大陸間を移動したり、あるいは世の中のすべての本を暗記したりすることはおよそできないように感じられます。生物学的な限界があるといってもよいでしょう。
科学やテクノロジーによってその限界を突破しようとする考え方のことをトランスヒューマニズム(transhumanism、超人間主義)といいます。
私たちは、テクノロジーと自分を一体化させることで、はたして不老不死に到達することができるでしょうか。あるいは到達したいでしょうか。
Q.サイボーグってなに?
サイボーグは、よくフィクションの作品で登場しますので、その言葉を聞くと漫画や映画などで出てくる機械化された人を思い浮かべる人が多いでしょう。
サイボーグという言葉自体は1960年からあります。実は宇宙空間のなかで人が生きるために、マシンと一体化して、脳が萎縮したり肺が破裂しないように体を調節することがイメージされました。社会的な背景としては、米ソの冷戦があり、宇宙開発競争がありました。
身体が不自由な人で、機械を埋め込んでなんとか生活しようとする人がいます。
一方で、機械を埋め込んで自分の能力を高めようとする人もいます。みなさんは、身体に不自由がないにもかかわらず、好きで機械を埋め込みますか。
Q.スコアリングってなに?
生きていくと、テストのときのように点数がつけられることがあります。単なる点数ではあるのですが、その点数に喜んだりいらだったり、あるいは点数を取ろうとして頑張ったりします。偏差値で表されることもあり、優越感を抱いたり劣等感に苦しむこともあったりします。
しかし、テストの点数化(スコアリング)は、その計算に使われる範囲も明確で、記述式の問題は曖昧なところがありますが判断基準もかなり明確です。しかも、あくまで試験に限った点数化なので、人をまるごとみて点数が出されているわけではありません。
けれども、私たちの行動が徐々にデータ化されるようになるにつれ、試験以外のいろいろな行動が点数化されるようになってきました。Aという人全体の点数が900点で、Bという人全体の点数が450点といったことが起きるとき、いったいどのような社会になるでしょうか。
もし、そういった点数づけを政府がするようになったら、どのように感じるでしょうか。
Q.AIってなに?
AIとは人工知能(Artificial Intelligence)の略称です。人間の知能と同じもの、あるいはもっと賢いものを、人工的にコンピューターでつくろうという研究です。その成果は社会のいろいろな場面で役立てられています。たとえば、あなたの身近なところでは、スマートフォンやスマートスピーカーに搭載された音声アシスタント、インターネットの検索エンジン、カメラの顔認証機能や写真加工機能、掃除ロボットのような家電、機械翻訳、自動車の運転支援などにもAIは活用されています。
ただし、AIはそもそも、人間の知能が論理的な計算能力だという仮説を前提しています。でも、人間の知能って、ほんとうに論理的な計算能力がすべてでしょうか?
Q.AIってどんなものに使われてるの?
AIはすでにたくさんのところで活用されています。たとえば、身近なところでは、インターネットの検索エンジン、ゲーム、掃除機やエアコンや冷蔵庫やレンジなどの家電、カメラについてる顔認識機能、写真加工機能、スマートフォンやスマートスピーカーに搭載された音声アシスタント、機械翻訳、自動車の運転支援(カーナビ、自動運転)などがあげられます。さらにより広く社会的には、マーケティングや広告、電子商取引、インフラの保全、防犯システム、スコアリング(市民の格付け)、軍事利用もされています。
今日、AIとして実現し、社会に実装されているのは、このような特定の機能に特化したものが中心です。SFに登場するような、まるで人間のように何でもできる汎用AIや、人間よりも遥かに賢い神々のような超知能は、いまのところ実現されていません。
これからどうなるか、いろいろな予測や予言がありますが、実際のところは誰にもわかりません。そういうすごいAIがそもそも原理的に可能なのかどうかも、研究者の間では意見が分かれています。どんなAIが実現し、どんなふうに社会に活用されていくかは、未来の人間たち次第です。あなたなら、どういうふうにAIを使いたいですか?
Q.AIにできないことはあるの?
AIにはいろんなことができますが、できないことも結構あります。なかでもとりわけ、AIには意味や価値がわかりません。もちろん辞書に載ってる言葉の定義を丸暗記することはできますが、それがいったいどういう「意味」なのか、理解しているわけではないのです。
わたしたちが「意味」というとき、言葉の定義をいうほかに、大切な「価値」のことをいうことがありますよね。「これはわたしにとってはとても意味のあることなんだ」というときのように。そういう、あなたにとってかけがえのない価値としての意味は、AIにはわかりません。それはなぜかというと、AIをつくるための基礎となっている情報理論がそもそも意味すなわち価値の問題を扱えないからです。でも、AIロボットが社会に出るなら、人との意思疎通にも、倫理や道徳にも、意味や価値は大切です。
AIには意味や価値がわからないとしたら、そういうAIをどうすれば上手に社会で活用できるでしょうか? そして、いつか意味や価値のわかるAIをつくることはできるでしょうか?
Q.AIって人間の仕事を奪っていくの?
時代の流れとともに、これまでも人間の仕事は移り変わってきました。その意味では、AIとともに人間の仕事も変化してゆくでしょう。なくなる仕事もあれば、新しく生まれる仕事もあるに違いありません。AIが人間の仕事を奪うというよりも、AIとともに、人間の仕事の種類や内容や、働き方が変わっていくことになるでしょう。
理論上は、論理的な計算で置き換えられる仕事は、AIでもできるとされています。でも、大切なのは、人間の仕事は人間が決めるということです。つまり、人間がどういう仕事をするかは、テクノロジーの進歩が決めることではなく、人間たちが決めていくということです。
あなたの夢であったり、信念や使命感を抱いている仕事があるなら、それを実現できるように支援することこそが、AIの役目です。人間がやるべき仕事、やりたい仕事をできるような未来の社会に向けて、AIをどう上手に使うことができるでしょうか?
Q.AIって道徳がわかるの?
AIは学習することで、自分がどういうルールにしたがうべきかを決定し、そのルールをきっちり守って動きます。ただ、どういう学習の仕方をするか、そして何を学習の教材にするのかは、人間が教えています。学習の過程で人間が教師役をつとめることもあります。どういう目標を設定し、どういうルールを守らせるかは、根本的には人間が指示しています。だから、道徳も、人間が教えてあげないと、AIはわかりません。
でも、人間にはほんとうの意味で道徳をAIに教えることはできるのでしょうか?
そもそも道徳とは何かを、人間は知っているのでしょうか? AIは、プログラムされたルールはしっかり守って動きます。じゃあ道徳もプログラムすればすむではないかというと、どうもそう簡単にはいかなさそうです。これさえ守れば道徳的といえるようなルールはあるのでしょうか? そもそも何か特定のルールさえ守れば道徳的なのでしょうか?あなたはどう考えますか?
Q.AIっていつからあるの?
AI(人工知能)研究は、1950年代のアメリカで誕生しました。でも、人間の知能を計算機で再現し、さらには人間のものよりも完璧な知能を実現する、というAIの根本的な考え方そのものは、それよりずっと前からありました。この発想のおおもとは少なくとも紀元前の古代ギリシア思想にまでは遡れます。つまり、AIというのは西洋思想におけるひとつの伝統的な世界観を背景にした、とても歴史ある研究だということです。
さて、1950年代半ばに誕生した現代のAIは、その後、うまくいったり壁にぶちあたったりを繰り返しながら努力を続けて、今日まで脈々と受け継がれてきました。最初、1950年代には、論理的な記号の演算をつきつめることで数学の証明などもできるようになり、第1次ブームを迎えましたが、この方法だと簡単なパズルやゲームくらいにしか利用できず挫折を経験します。
次は1980年代に、たくさんの実用的な知識をつめこむことで応用を効かせ、第2次ブームを起こしましたが、これも原理的な限界があり、また冬の時代を迎えます。2010年代になると、人間の脳の仕組みをモデルにした統計的な手法により、論理的な正確性は落ちましたが応用範囲はさらに広がり、今日の第3次ブームにつながりました。
Q.AIって感情があるの?
いまのAIに感情があるのかどうか、あるいはいまは感情がなくても将来のAIはもちうるのかどうか、これは研究者の間でも意見がわかれています。なぜかというと、そもそも感情が何なのか、科学的にはよくわかっていなくて、いろんな考え方の人たちがいるからです。
たとえば、脳をそっくりそのまま再現すれば、感情もつくれるはずだという人もいます。あるいは、感情というものはじつは迷信で、現代の科学が未発達なせいで存在すると誤解されているだけにちがいないという人もいます。はたまた逆に、感情というのは物理現象ではないから、脳を再現したり科学が進歩したりしたところで、感情をもつAIをつくることはできないという人もいます。
他にもいろんな意見の人たちがいて、議論はつきません。ですから、AIが感情をもつとか、あるいはAIには感情がわかるとか、そういうことは性急には断言できません。なにしろ、そもそも感情とは何かを科学的には解明できていないからです。感情とは何か? これはとっても不思議で魅力的な問いではないでしょうか。AIロボットをつくりながらこの問いに挑戦するというのも、ひとつの方法かもしれません。みなさんは、感情って何だと思いますか?
-
7つの大切なポイント
- 個人
-
健康のためにセンサーやチップを体内に埋め込む
- 個人
-
知能を向上させるために頭にチップを埋め込む
- 個人
-
進路(大学や学部、会社など)の提案
- 個人
-
コミュニケーション支援
- 個人
-
チャットボット機能での応答
- 個人
-
子どもの見守り
- 集団
- 家庭/家族
-
家事
- 集団
- 家庭/家族
-
健康管理
- 集団
- 家庭/家族
-
介護
- 個人
- 家庭/家族
7つの大切なポイント
AIのチャンスとリスクを考えるとき、つねに大切にされるべき7つのポイントがあり、国際的にも重視されています。
いろいろなAIの応用事例ごとに特殊なリスクとチャンスもたくさんありますが、それらに共通して根本的にいつでもこの7つのポイントは大事になります。
1. 人間中心
2. 個人の尊重
3. 公平性
4. 透明性・説明可能性
5. 結果責任(アカウンタビリティ)
6. プライバシー保護
7. 安全性とセキュリティ
健康のためにセンサーやチップを体内に埋め込む
-
チャンス
もし実現すれば、病院に行かなくても、いつでもどこでもあなたの健康状態がチェックできるようになりますし、体内でAIロボットが病気を退治してくれるようになるかもしれません。
-
リスク
体内に埋め込むため、維持管理や、万一誤作動を起こした場合の対処に、困難が予想されます。プライバシーの侵害や個人情報の悪用が懸念されます。
知能を向上させるために頭にチップを埋め込む
-
チャンス
もし実現すれば、あなたがいまスマートフォンやパソコンやインターネットを使ってやっていることを、頭の中だけでできるようになるかもしれません。
-
リスク
体内に埋め込むため、維持管理や、万一誤作動を起こした場合の対処に、困難が予想されます。また、あなたの身体や健康状態について、プライバシーの侵害や個人情報の悪用が懸念されます。もしかするとあなたの意思決定を外部から操作されてしまうかもしれません。
進路(大学や学部、会社など)の提案
-
チャンス
あなたの経歴や能力や関心などのデータにもとづいて、あなたに適した学校や仕事のプランをAIロボットが提案してくれます。
-
リスク
将来のことは原理的にAIロボットでも決して正確には予測できないので、アドバイスにしたがっても成功は約束されません。プライバシーの侵害や個人情報の悪用が懸念されます。また、AIロボットを通じて人々の人生が操作されてしまうかもしれません。
コミュニケーション支援
-
チャンス
どうしてもうまく言葉にできないことを、どう表現したらよいか、あるいは場面や状況に応じてどう振る舞うといいのか、AIロボットが提案してくれます。
-
リスク
AIロボットがうまく機能しないとかえって誤解を深めるおそれもあります。またコミュニケーションにおけるテクノロジー依存を高めることも懸念されます。
チャットボット機能での応答
-
チャンス
問い合わせや事務手続きなど、決まり切ったやりとりをAIロボットが代理してくれたり支援してくれたりします。
-
リスク
誤作動のせいで必要な手続きに失敗してしまうかもしれません。またAIがうまく学習できないと誤った応答や不適切な応答をするようになってしまうおそれがあります。
子どもの見守り
-
チャンス
大切な家族の健康や安全を、あなたの留守中や離れて暮らしているときに、AIロボットが見守ってくれます。
-
リスク
急病や事故をAIロボットが見逃してしまうかもしれません。またプライバシーの侵害や犯罪への悪用が懸念されます。
家事
-
チャンス
掃除・洗濯・炊事をはじめとする家事を、AIロボットが代理したり手伝ってくれたりします。
-
リスク
AIロボットがうまく認識や学習をできないとかえって家事の効率が落ちたり、誤作動で事故を起こしてしまうかもしれません。
健康管理
-
チャンス
あなたの健康状態にもとづいて、AIロボットが食事や睡眠のアドバイスをしてくれます。
-
リスク
AIロボットが誤ったアドバイスをしてしまうおそれがあります。またプライバシーの侵害や個人情報の悪用が懸念されます。
介護
-
チャンス
AIロボットがあなたに適した介護のプランを提案してくれたり、実際にあなたの介護を支援してくれます。
-
リスク
AIロボットが誤ったアドバイスをしてしまうおそれや、介護中に事故が起こるおそれがあります。またプライバシーの侵害や個人情報の悪用が懸念されます。