日本IBMでは労働組合が反発

AIが予測した結果に公平で完璧なものはないという前提に立つと、結果をうのみにすることは禁物だ。だが上司の中にはAIが下した人事評価に依存する人もいるかもしれない。ましてやどうしてこういう結果になったのかという機械学習のアルゴリズムがブラックボックス化していれば「AIの判断だ」と説明するだけになり、部下の納得性は下がるだろう。

実際に日本IBMではワトソンが予測する人事評価や賃金決定の方法に労働組合が反発し、ワトソンの学習データの開示を会社に求めている。会社側が団体交渉の要求を拒否したため労組は2020年4月、東京都労働委員会に救済を申し立て、受理されている。現在も審理中であるが、労働組合のJMITU日本アイビーエム支部はホームページ上でこう述べている(「AIの不透明な賃金提案」2021年4月)。

「会社側の説明によれば、ワトソンAIは対象となる従業員について、40種類ものデータを収集し、4つの要因(スキル、基本給の競争力、パフォーマンスとキャリアの可能性)ごとに評価したうえで、具体的な給与提案をパーセントで示すとのことです。しかし、この40もの情報は具体的に何であるかが明らかにされていません」

個人データの取り扱いを規制する動きが世界で加速中

評価される側にとってはどんなデータを使ってAIが判定しているのかを知りたいだろう。実はAI予測を含むあらゆる個人データの取り扱いを規制する動きが世界で加速している。2018年5月に施行された欧州連合(EU)の一般データ保護規則(GDPR)は世界の企業を震撼しんかんさせた。日本の個人情報保護法は氏名や顔など個人を特定できるデータを主に対象とするが、GDPRはネットの閲覧履歴がわかるクッキー情報など氏名を含まないデータも対象とし、個人の承諾なしにはAI予測もできなくなった。また、使用に対する説明責任や人間による判断を介在させない「完全自動意思決定」の原則禁止も盛り込んでいる。違反企業には制裁金が課され、すでに数十億円、数百億円単位の金額を請求された企業も多い。