AI(人工知能)の活用が進められ、人材採用や融資審査などの場にも導入されつつある。だが、AIの普及が、新たな差別をもたらす可能性があると慶應義塾大学法科大学院の山本龍彦教授は危惧する。

中国では、AIが人間に対する評価を決めている(北京市内)。(写真=AFLO)

例えば採用面接の場で、あるAIから低評価をつけられたとする。そして、他のAIも同様のロジックで判定・評価を行えば、その人の社会的な評価は下層で固定化される。それにより仮想空間上の低評価層、バーチャル・スラムから抜け出せなくなるのだ。また「判定に至った理由がブラックボックスと化し、不服も申し立てられないのが問題」(山本教授)。

早くも中国では、バーチャル・スラム化の兆しがうかがえる。同国eコマース最大手・アリババ傘下の信用情報機関・芝麻信用は、利用者の年齢や学歴・職歴、保有資産、取引履歴、人脈などから個々の信用力を950点満点で採点。同スコアは融資審査や人材採用にも活用され、高得点者は観光ビザを取得しやすいなどの特典が得られるが、低得点者はあちこちで門前払いとなる。

EUでは2018年5月に、AIのみが判断した融資や人材採用は認めないというGDPR(一般データ保護規制)を施行する。主観を交えず個人の適性や信用度を判定するAIだが、人物評価のすべてをAIに委ねることには一考の余地がありそうだ。