AI(人工知能)が挑む究極の選択「モラルジレンマ」とは

AI(人工知能)が挑む究極の選択「モラルジレンマ」とは

1. 人間を負かすAI(人工知能)

話しかければ返事をしてくれるスマートフォン、声で操作ができる電化製品…AI(人工知能)は日々進化し、私たちの生活にも少しずつ浸透してきています。将棋やチェス、オセロなどのボードゲームの世界でもAIが次々と人間に勝利。中でも差し手の数が多い囲碁でも、ついに昨年、世界チャンピオンがGoogleの囲碁AI「AlphaGo」との対戦に敗れるということが起きました[1]。

2. 進むAIの活用

ビジネスの分野でも、AIの実用化が進んでいます。東京証券取引所を運営する日本取引所グループは2月、売買審査業務にAIを適用する計画を発表しました。大量の取引データから怪しい注文をふるいにかけ、相場操縦などの不公正取引を見抜くというもので、2017年度中の実用化を目指しています[2]。

人間では処理することのできない膨大なデータを蓄積・分析し、通常と違うパターンを見つけ出すというのは、AIの得意とするところです。例えば情報セキュリティの領域においては、WEBサイトへのアクセスを解析し、通常とは異なるパターンのアクセスを検知し不正アクセスを阻止することが可能になっています。

3. AIが抱える「モラルジレンマ」

一方でAIには、まだ解決しなければならない課題も残ります。その一つが、モラルの問題です。

「モラルジレンマ」という言葉を聞いたことがあるでしょうか。簡単に言えば、究極の二択を迫られた時に生じる倫理的な葛藤のことです。有名なトロッコの例を聞いたことがある方も多いでしょう。「あなたが乗車するトロッコが暴走を始めました。トロッコはちょうど分岐点に差し掛かります。このまま何もせずに直進すれば、この先で線路の修復をしている5人の作業員の命を奪うことは明白です。しかし、もしあなたが舵を切りもう一方の線路に進めば、被害に遭うのはこちらの線路で作業をしている1人だけです。あなたは5人を救うために舵を切り、1人の命を奪いますか?」… これがモラルジレンマです[3]。

AIの世界で、まさにこの「モラルジレンマ」の問題を抱えている顕著な事例が自動走行車です。公道を走る未来も現実味を帯びてきた完全自動走行車。もし同様の判断を迫られたら、AIはどのような判断を下すべきなのでしょうか。

MITの研究チームは、「自動運転車を用いた人工知能の道徳的な意思決定に関して、人間の視点を収集するためのプラットフォーム」をオンライン上に公開しています[4]。自動走行車が出くわす可能性のある13のシチュエーションに対し、人々に「自分だったら、どう判断するか」を問い、その結果を公表するという試みです。この中であなたは、トロッコと同様に「5人or1人」といった人数の問題の他に、「妊婦or乳幼児」「女性or男性」「医師or犯罪者」「信号を守っている人or車に乗っている人」などといった究極の判断を迫られます。何かしらの犠牲が避けられない状況下に置かれた場合に、AIがどのような判断を下すのが“適切”なのか、議論の余地が残ります。

4. 情報セキュリティの世界における究極の選択とは

ところで、AIを使って犯罪を予知するという米国の人気ドラマをご存知でしょうか。街中に設置された防犯カメラやお天気カメラ、Webカメラの映像を用いて全ての市民を監視。収集したデータをコンピュータが分析し、犯罪やテロなどの異常を事前に察知するというものです。

AIの情報セキュリティ領域への活用が進むなかで、議論の的になっているものの1つにプライバシーの問題があります。上記のドラマのような国家を脅かすテロや凶悪犯罪、または私たちの身近に潜むサイバー犯罪などを検知するために、私たちの個人情報をはじめ、インターネット上の検索・閲覧履歴や行動、サイトへのログイン履歴や所在地など、プライバシーに関わる情報が必要になるとしたらどうでしょうか。AIによって人間の分析能力を超えた莫大なデータを、過去何十年にもわたって解析可能となった未来において、私たちは自分たち自身のプライバシーを守ることができるのでしょうか。そのような未来においては、人々の安全を守るために、個々のプライバシーは犠牲にされるべきなのでしょうか。「安全保障or市民のプライバシー」という究極の選択に、AIはどのように対処していくべきなのでしょうか。

こう考えるとAIとモラルの問題は、AIを開発する企業や技術者、法整備に関わる一部の人間が考えれば良い、ということではないのは明らかです。今、もしくは将来、AIを活用する全ての人が注意を向け、議論を深めていく必要があるでしょう。

(文/星野みゆき 画像/© thodonal– Fotolia)

参考:

[1] 読売新聞. (2017). 「変わる社会」(5) 新手を創造トップ棋士破
http://www.yomiuri.co.jp/osaka/feature/CO027331/20170513-OYTAT50011.html

[2] 日本取引所グループ. (2017). 人工知能の売買審査業務への適用について
http://www.jpx.co.jp/corporate/news-releases/0060/20170228-01.html

[3] WIRED. (2008). 人間の倫理は非理性的か:「トロッコ問題」が示すパラドックス
http://wired.jp/2008/11/11/人間の倫理は非理性的か:「トロッコ問題」が示/

[4] MIT Media Lab. (2016). モラル・マシン
http://moralmachine.mit.edu/hl/ja