AIにとっての人間らしさとは?自動運転車がぶつかる倫理観の壁

IMG_3749-2

こんにちは。

イードア広報担当です。

 

誰かの命を助けるために、他の誰かの命を犠牲にする人工知能を、あなたは許せますか?

 

例えば、こんな問いがあります。「線路を走るトロッコが制御不能になり、このまま進むと前方にいる5人の作業員が死んでしまうとする。このときあなたは、線路を切替えることができる分岐器のそばにいた。切替えれば5人は助かるが、新たな進路上にいる1人の作業員が死んでしまう。あなたはどちらの犠牲を選びますか?」

 

トロッコ問題(もしくはトロリー問題)と呼ばれるこの問いは、有名な倫理学上の思考実験の一つです。いま、AI(人工知能)によって制御される自動運転車を開発する企業は、このような問いへの答えを求められています。

 

自動運転車は歩行者と運転手どちらの命を優先するべきか

 

自動運転車を取り巻く関連産業は、2030年には年7兆円規模に膨らむとの試算もあり、国内外の自動車メーカー、IT企業、部品会社など、数多くの企業が開発競争を繰り広げています。

 

物流・輸送の人手不足解消や、事故防止、交通の効率化といった面での貢献を期待される一方で、予期せぬ場面に陥った際の車の動きをどうプログラミングするかは、開発者の悩みの種といえるでしょう。

 

2016年5月には、米テスラ・モーターズ製の電気自動運転車が、試験走行中に他車両との接触による死亡事故を起こし、大きな波紋を呼びました。このあと同じく米国のゼネラル・モーターズ(GM)は、2016年秋に製品化予定としていた自動運転車の発売を翌年まで延期しており、安全面への慎重な姿勢が窺われます。

 

冒頭のトロッコ問題に対する一つの解として、独メルセデス・ベンツは「今後発売する完全自動運転車は、歩行者よりも運転手の安全を優先した設計とする」と回答しました。

 

では、その人工知能の判断により、何の罪もない子どもたちが犠牲になった場合、私たちはそれを倫理的に受け入れられるのでしょうか?一方で、突然車道に飛び出した歩行者の命を優先する車があったとしたら?そんな車は誰も買いたがらないかもしれませんね。

 

このようなジレンマは予てから議論されてきましたが、明確な答えは見出されていません。しかし現在、事故が起きた際の責任の所在も含め、国やメーカーを超えた一定の合意形成は急務といえます。

 

AIが守るべきものの選択によって変わる未来

 

2016年12月13日、IEEE(米国電気電子学会)は倫理観に基づくAIの標準規格を策定するべく、さまざまな起こりうる倫理的課題について検討した報告書をまとめました。IEEEの取り組みに対しては、研究開発者だけでなく弁護士や経済学者、哲学者など社会全体からの意見が募られています。

 

AIがその使命を遂行するため、邪魔になる人間の命を奪うというテーマを扱う映画・小説は、古くから数え切れないほど世に送り出されてきました。

 

2014年に公開された「トランセンデンス」では、天才科学者の脳をアップロードされたAIが、自らを加速度的に再設計し、人類を支配する存在となり得る未来が示唆されています。

 

今回のIEEEの取り組みの背景には、そのようなSFに描かれた世界に、刻一刻と近づいてきている現実の存在があります。

 

例えば、2016年3月にMicrosoftが開発した人工知能「Tay」は、Twitterやその他チャットサービス上でリリースされたその約16時間後にはサービス停止に追い込まれてしまいました。原因は、悪意あるユーザーに差別的・暴力的発言を教えられ、不適切な発言を繰り返すようになってしまったことです。

 

生活に恩恵をもたらすはずのテクノロジーとうまく共存していくために、AIには一貫した倫理・道徳観を取り入れることが求められるでしょう。そこから、私たちがいま向き合う必要のある命題も見えてきそうです。

 


2017年現在、AIは今後あらゆる産業に関わってくる技術といわれるだけに、その専門人材の需要は急速に高まっています。社会に与えるインパクトの大きさと、その意義深さを考えると、まさに未来を切り拓く仕事ということもできるでしょう。

 

一方で、テクノロジーが人間の脅威となるSFのような未来を現実のものとしないよう、様々な領域の専門家の声を集約し、責任ある意思決定がなされていくことに期待したいですね。

 

 

 

※参考

http://biz-journal.jp/2016/04/post_14504.html

http://www.nikkei.com/article/DGXKZO00332560S6A500C1M11400/?df=2

http://eetimes.jp/ee/articles/1612/16/news070.html