不利益を排除するルールづくりが必要

もちろんEU域内で活動する日本企業も対象になる。さらに今年の4月21日、EUの行政府である欧州委員会は新たな立法提案として「人口知能に関する規則案」を発表し、大きな反響を呼んでいる。日本の経団連も「欧州AI規制法案に対する意見」(2021年8月6日)を出すなど当事者として危機感をあらわにしている。

規則案ではAIを4段階のリスクに分けているが、上位のハイリスクには雇用労働に関するリスクも列挙されている。労働政策研究・研修機構の濱口桂一郎研究所長の「EUの新AI規則案と雇用労働問題」(JILPTリサーチアイ、2021年4月30日)では、具体的な規制対象として以下の2つを挙げている。

(a)自然人の採用または選抜、とりわけ求人募集、応募のスクリーニングまたはフィルタリング、面接または試験の過程における応募者の評価、のために用いられるAIシステム
(b)労働に関係した契約関係の昇進及び終了に関する意思決定、課業の配分、かかる関係にある者の成果と行動の監視及び評価に用いられるAIシステム

採用の際のスクリーニングや面接試験でのAI予測、昇進や成果など給与に関わる人事評価は、すでに紹介したように日本でも行われている。規制案ではリスクマネジメントシステムの設定やデータガバナンスの確立義務のほか、ユーザーへの透明性と情報提供義務や人間による監視義務なども盛り込まれている。規則案が成立すれば、企業はGDPR同様に大きな打撃を受けることになる。

EUは法規制によってAI予測が招く働く人たちの権利保護と人権侵害から守ろうとしている。それに対して日本は個人情報保護法を含めて法整備がかなり遅れている。AI予測がもたらす不利益を排除するルールを早急に構築すべきだろう。

溝上 憲文(みぞうえ・のりふみ)
人事ジャーナリスト

1958年、鹿児島県生まれ。明治大学卒。月刊誌、週刊誌記者などを経て、独立。経営、人事、雇用、賃金、年金問題を中心テーマとして活躍。著書に『人事部はここを見ている!』など。