Wiredの「MITが描く「クルマ・人・街」の新しいエコシステム」というレポートを読み、「自動車自動運転と倫理」について考えてみました。
自動運転はFinTechか
倫理について触れる前に、まずは、自動運転がFinTechに含まれるのかを考えてみたいと思います。
私はFinTechの使用のされ方として、以下の二つが代表的なものと考えています。
1. 金融会社のイベノーションを促す技術
2. 金融会社に限らず、事業会社/消費者/社会にも便益をもたらす、従来の金融サービス(投資アドバイス、送金、決済、経理、財務等)に代わる/改善するテクノロジー
広義には1、2の両方がFinTechにあたり、狭義には2のみになるかと思います。私としては、FinTechという言葉で示すのは2に限った狭義の使い方が適切ではないかと思いますが、詳細はまた別の機会に考察したいと思います。
ですので、自動車保険を主力商品として扱う損害保険会社のことを考えると、自動運転は1の使い方には含まれるものの、FinTechというくくりで自動運転を語るのは、私としてはあまり適切ではないと考えが。が、デロイトの
保険業界におけるFinTechの潮流でも、自動運転は取り上げられていますし、このブログで取り上げる次第です。
自動運転と倫理
さて、「自動運転と倫理」を考えるにいたったのは、Wiredの「
MITが描く「クルマ・人・街」の新しいエコシステム:「WIRED Future Mobility Session」レポートのなかでの、ダニエル・ベレリ氏の発言を読んでです。該当の箇所を引用してみます。
そこで考えなければいけないのは、倫理的な問題です。例えばMITのほかのラボでは、自律走行車の倫理的なジレンマについて研究しています。自律走行車が人を轢きそうになったときに、それを避けるためには犬を轢かなければいけないという状況で、クルマにどちらを選択させるべきか。デザイナーだけではこうした倫理問題に回答を出すことはできません。しかしシナリオを提示して、人々に問題について考えてもらうべく伝えていかなければいけません。
なるほど、自動運転をプログラミングする際に、「犬か人か」どちらかを轢かなくてはいけない、という状況でどちらを選択すべきかは倫理的に考えなくはいけない問題ですね。人間が運転をするケースでは、その人個人の倫理的判断に基づけば、いいのですが「自動運転」させる場合は、何が「正しい運転」、「望ましい運転」かを人が決めアルゴリズムを組むわけで、そのアルゴリズムが社会一般の通念や倫理に反していてはいけないですよね。
取り上げられたケースの場合、人と犬であれば、まだ考えやすいかと思います。議論はあるものの「犬」を轢く方に選択するのが社会的通念に則ったものではないでしょうか。
それでは、人一人と人二人はどうでしょうか、この場合はプログラムではどちらかを明示的に選択せずに、ランダムに選ぶというのも、一つの倫理的な解決かもしれません。
それでは、末期ガンを宣告された人一人と、小学生二人はどうでしょうか。まもなく死ぬ人間一人と未来ある子供二人のケースです。
あくまで上記は例で、「正しいこと」をアルゴリズムとして組み込む際には、このようにどちらかを選択しがたい状況での倫理的問題を考えざるをえないですね。