AIが学ぶのは「人間が正解と判断したもの」という恐怖

自動運転車は、自分でこれらについて決定を下さねばなりません。

危険な状況が起こることが明らかになったとき、それにどう対処するかを人間ではなく自動車、というかコンピューターが自動的に判断できるようプログラミングしなくてはなりません。

では、コンピューターはどんな根拠で判断を下すべきなのでしょうか?

簡単なケースもありますが、かなり複雑で多様なシナリオを自動運転車に決定させる必要があります。

数学者のアプローチの大きな黒板
写真=iStock.com/Just_Super
※写真はイメージです

いま、私たちはこのゲームを通じて、自動運転システムの訓練に必要なデータを提供しました。

人間が正答だと感じる答えを、機械に教え込む作業に参加したわけです。

いま、私たちはゲームのようにさまざまな決定を下しましたが、これは考えてみれば5年後、10年後に実際に自動運転車が下す決定に影響を与えることになります。

恐ろしくないですか? 私は、そのような決定に自分が加わることがちょっと怖くなります。

答えの出ない難問に答えを出そうとする試み

功利主義論争のように、右に行くか左に行くか。そしてその決定の結果、世界によい結果と悪い結果のどちらをもたらすのか。

悪い結果が出る確率はどれほどか。その計算をするのは私たちです。責任はやはり人間にかかっているわけですね。

このような決定の問題は、「トロッコ問題(trolleyproblem)」と言われて、哲学ではかなり前から議論されてきました。

ブレーキの壊れたトロッコが坂道を下ってくるとき、進路を変えずにトロッコに乗っている5人を死ぬに任せるのか、あるいは進路を変えて4人の歩行者を死に追いやるのか。

そういう問題を哲学的に扱ったものです。

哲学の世界で扱われてきたこのトロッコ問題は、いまや自動運転車の開発において考慮すべき時代になりました。

倫理という形而上学的問題を構造化、モデル化し、アルゴリズムをつくっているわけです。