人権の侵害や差別につながりかねない
データを読み込む機械学習などAI(人工知能)技術の進化がビジネス領域だけではなく、採用や昇進など人事分野にも及んでいる。その一方でAIの予測が人権の侵害や差別につながりかねない事態も発生している。
その典型事例は、2018年10月に発生したアマゾンのAI採用打ち切りのニュースだろう(「焦点:アマゾンがAI採用打ち切り、『女性差別』の欠陥露呈で」ロイター、2018年10月10日)。記事によるとAIを活用した人材採用システムに「女性を差別する機械学習の欠陥」が判明した。その原因として、過去10年間の履歴書のパターンをAIに学習させた結果、ソフト開発など技術関係の職種採用ではシステムに性別の中立性が働かない事実が発見されたという。
事例として、履歴書に「女性チェス部の部長」、あるいは「女子大卒」とあれば評価が下がる傾向が出たという。それはなぜか。AIや機械学習は過去の膨大なデータを読み込み、予測する能力には秀でている。しかし、機械学習に使用するアルゴリズム(手順や計算方法)が古い価値観に基づいた過去のデータを読み込んで予測した結果、バイアス(偏り)が入り、今の価値観と異なる間違った答えを出す可能性があるからだ。
明確に不合格者を決めてほしい人事部
女性の採用差別につながるケースは日本でも起こり得る。とくに新卒採用では母集団形成のために数万単位のエントリーシート(ES)を集め、最終的に数百人に絞り込むという労力のかかる作業が必要になる。AIを使って、欲しい人材を効率的に選びたいと考えても不思議ではない。HRテック企業のZENKIGENの野澤比日樹CEOとシングラーの熊谷豪CEOの2人が対談でこんなことを語っている(「AIで採用・不採用の判断をすべきでない! HRテックCEOが警鐘を鳴らす採用DX」ITmediaビジネスオンライン、2021年8月4日)。
【野澤】クライアントの方から、「もっと採用不採用が簡単に分かるようにしてくれ」と言われたりしませんか?
【熊谷】言われますね。「適性検査みたいに、明確に不合格者を決めてほしい」という人事のニーズは間違いなくあるでしょう。ビジネス提供側として、どこまで顧客のニーズに応えるか、判断は難しいところ。
やはりAI活用による合否予測を求めている人事が多いようだ。そのうえで熊谷氏はこう語っている。
「ただ、一つ思うのは『不合格者を決めることはできるけれど、判断基準が過去のデータで本当に大丈夫か?』ということ。例えば、よく適性検査に出てくるコミュニケーション力にしても、実は、1970年代ごろの研究をもとに作られたりしています。当時求められていたコミュニケーション力と、これから求められるものは全く異なるはず。AIを用いて自動的に得られる結果は、過去の最適解であっても、未来の最適解とは限らないんです」
ここでも過去データのアルゴリズムによる予測結果に疑問を呈している。
人事の現場で活用されるアルゴリズム予測
実際に人事の現場ではアルゴリズム予測が広く活用されている。列挙すると以下のとおりだ。
②応募者の「自己PR動画」を分析し、コミュニケーション能力などの評価を合否に使う
③学生に対する調査結果や選考結果などを分析し、会社でのパフォーマンス発揮の可能性を予測する
④従業員の行動・業績などを分析し、報酬決定などの人事評価を診断する
⑤日報・日誌などを分析し、従業員の離職可能性を判定する
⑥勤怠記録を分析し、メンタルヘルス不調者を予測する
ESを読み込み、合否を判定する①で使われている代表的なものがIBMのAI・ワトソン(Watson)だ。こうした選考手法はソフトバンクをはじめ多くの企業で実施されている。過去の合格・不合格のESをワトソンに学習させたうえで、学生が提出したESを会社が求める人物像の要件に合っているかどうかを基準に判定する。ただし、アルゴリズムがどのデータを選択し、どう判断しているのかについてはブラックボックスになっている。もちろんこれで採用が決まるわけでもなく、あくまでも面接選考者を絞り込むための手段とされている。
上位1割は面接なしで合格を出す
一方、②は、あらかじめ設定された質問に学生が回答する様子を撮影した動画を機械学習のアルゴリズムを使って分析し、対話能力や思考力などを点数で評価するものだ。ソフトバンクや日立製作所など大手企業で使用されている。
ユニ・チャームも2022年4月入社の新卒採用で導入すると報じられている。同社は2021年1月に実施したインターンシップで試験導入し、100点満点の上位1割については実際の面接なしに合格を出したという。採用選考では審査時間の軽減を図るためにAIの評価を参考にする。
介護業界で離職率が2割減るという実績
さまざまな人事データを積極的に人材マネジメントに活用している企業も少なくない。
③のケースでは、過去に蓄積された人事評価データをベースに調査結果と選考経過などの情報をAIで分析し、入社後のパフォーマンスを予測したり、選抜人材の仕組みにも活用している。
さらに会社員人生の根幹ともいえる給与や昇進に関わる人事評価について④のように、すでに実用化している企業もある。日本IBMは前出のワトソンを活用した人事評価ツールを2019年8月に社内に導入している。職務内容、個人業績、スキル、現在の給与などを対象に分析し、人事評価を算定している。ただし、評価結果はあくまで評価者のマネージャーの補助データという位置づけだ。
そのほか⑤の離職防止や⑥のメンタル不調者の早期発見にもAIが活用されている。離職防止にAIを活用している医療・介護サービス会社の人事部長はこう語る。
「介護職員の1年以内の離職率が異常に高く、経営トップから調査して離職率を抑えろと命じられた。そこでAI関連の事業者と相談し、500人の新入社員が毎日記録している日誌をAIに読み込ませ、離職可能性が高い人はアラートが出るようにした。アラートが出た人に対し、個別にいろんな悩みなどを含めた面談を実施した。その結果、短期の離職率が2割減るという効果も生まれている」
対象者に思いもよらないリスクが生じる可能性
こうした人事データを活用した一連のAI分析は、人的労力などのコストの削減と業務のスピードアップによる効率化、何より“正しい答え”を導き出してくれるメリットをもたらす。しかし、そのデータ元が学生や求職者、従業員の個人情報であること、そして“正しい答え”というものはなく、あくまで確率論にすぎないことに注意が必要だ。予測結果に誤差が入り込む可能性があり、対象となる個人に冒頭で述べたような不当な差別など不利益を与えるリスクもある。
人事データの活用に詳しいリクルートマネジメントソリューションズHR Analytics&Technology Labの入江崇介所長はこう指摘する。
「AIの機械学習では過去のデータを使う。そこにバイアスがあると、バイアスにもとづく学習が行われ、採用や登用の選抜基準などで従業員など対象者に思いもよらないリスクが生じることもある。不利益が起きないようにするには、目的を偽って情報を収集しないように透明性のある適正な手続きを踏む、バイアスの問題があるかどうかを確認するなどリスクをしっかりと理解して運用する必要がある」
また、入江氏の編著『人事データ活用の実践ハンドブック』(中央経済社)でも「もともと男性が多い職場での活躍予測を行った際に、『活躍可能性は、男性の方が高く、女性の方が低い』という結果が得られることが起こり得る。学習データにおけるマイノリティに不利な予測が繰り返される可能性がある」と述べている。
日本IBMでは労働組合が反発
AIが予測した結果に公平で完璧なものはないという前提に立つと、結果をうのみにすることは禁物だ。だが上司の中にはAIが下した人事評価に依存する人もいるかもしれない。ましてやどうしてこういう結果になったのかという機械学習のアルゴリズムがブラックボックス化していれば「AIの判断だ」と説明するだけになり、部下の納得性は下がるだろう。
実際に日本IBMではワトソンが予測する人事評価や賃金決定の方法に労働組合が反発し、ワトソンの学習データの開示を会社に求めている。会社側が団体交渉の要求を拒否したため労組は2020年4月、東京都労働委員会に救済を申し立て、受理されている。現在も審理中であるが、労働組合のJMITU日本アイビーエム支部はホームページ上でこう述べている(「AIの不透明な賃金提案」2021年4月)。
「会社側の説明によれば、ワトソンAIは対象となる従業員について、40種類ものデータを収集し、4つの要因(スキル、基本給の競争力、パフォーマンスとキャリアの可能性)ごとに評価したうえで、具体的な給与提案をパーセントで示すとのことです。しかし、この40もの情報は具体的に何であるかが明らかにされていません」
個人データの取り扱いを規制する動きが世界で加速中
評価される側にとってはどんなデータを使ってAIが判定しているのかを知りたいだろう。実はAI予測を含むあらゆる個人データの取り扱いを規制する動きが世界で加速している。2018年5月に施行された欧州連合(EU)の一般データ保護規則(GDPR)は世界の企業を震撼させた。日本の個人情報保護法は氏名や顔など個人を特定できるデータを主に対象とするが、GDPRはネットの閲覧履歴がわかるクッキー情報など氏名を含まないデータも対象とし、個人の承諾なしにはAI予測もできなくなった。また、使用に対する説明責任や人間による判断を介在させない「完全自動意思決定」の原則禁止も盛り込んでいる。違反企業には制裁金が課され、すでに数十億円、数百億円単位の金額を請求された企業も多い。
不利益を排除するルールづくりが必要
もちろんEU域内で活動する日本企業も対象になる。さらに今年の4月21日、EUの行政府である欧州委員会は新たな立法提案として「人口知能に関する規則案」を発表し、大きな反響を呼んでいる。日本の経団連も「欧州AI規制法案に対する意見」(2021年8月6日)を出すなど当事者として危機感をあらわにしている。
規則案ではAIを4段階のリスクに分けているが、上位のハイリスクには雇用労働に関するリスクも列挙されている。労働政策研究・研修機構の濱口桂一郎研究所長の「EUの新AI規則案と雇用労働問題」(JILPTリサーチアイ、2021年4月30日)では、具体的な規制対象として以下の2つを挙げている。
(a)自然人の採用または選抜、とりわけ求人募集、応募のスクリーニングまたはフィルタリング、面接または試験の過程における応募者の評価、のために用いられるAIシステム
(b)労働に関係した契約関係の昇進及び終了に関する意思決定、課業の配分、かかる関係にある者の成果と行動の監視及び評価に用いられるAIシステム
採用の際のスクリーニングや面接試験でのAI予測、昇進や成果など給与に関わる人事評価は、すでに紹介したように日本でも行われている。規制案ではリスクマネジメントシステムの設定やデータガバナンスの確立義務のほか、ユーザーへの透明性と情報提供義務や人間による監視義務なども盛り込まれている。規則案が成立すれば、企業はGDPR同様に大きな打撃を受けることになる。
EUは法規制によってAI予測が招く働く人たちの権利保護と人権侵害から守ろうとしている。それに対して日本は個人情報保護法を含めて法整備がかなり遅れている。AI予測がもたらす不利益を排除するルールを早急に構築すべきだろう。