AIに求められる「倫理指針」
EU(欧州連合)は、AI(人工知能)の倫理指針策定を進めている。すでに域内では先進国を中心に融資での与信管理や人材採用における書類選考など、様々な分野でAI導入が進んでいる。
今後は自動車の運転を委ねるなど、さらに高度な分野にまで導入が進むと見られる。だが、「AIは生身の人間のような倫理観や常識を持ち合わせていない」(ドワンゴ人工知能研究所の山川宏所長)ため、倫理指針が必要になっている。指針に沿って人間がAIをコントロールしないと、「特定の人種において延滞が多いなど、AIが偏った傾向分析を行い、差別的な与信判定を下す恐れがある」(同)。
EUは倫理指針を通じて、AI採用企業にその判断過程を説明する責任を課すとともに、AIの判断ミスで被った損害を補償する賠償責任保険への加入も求める。さらに、AIの仕組みや運用がモラルに反していないかを監査する機関や、AIの倫理面に関する認証制度も設ける。現状のAIを人間の成長に例えれば、「まだ生後半年程度の段階」(同)。人間の赤ん坊と違って口は達者である(与えられた命題に答える)が、物事の理解が軽薄なレベルにとどまっているとか。日本政府も18年12月にAIの7原則を公表、その1つに「AIを利用した企業に決定過程の説明責任」という文言を盛り込んだ。
(写真=AFLO)