「典型的なプログラマー像」が生んだ採用の偏り

広く引用されている1967年のある論文では、「人びとに対する無関心」や、「人との密接な交流を要する活動」を毛嫌いすることなどが、「プログラマーに顕著な特徴」であると指摘している。その結果、企業はそういう人物を探し出し、そういう人たちが当時のトッププログラマーになった。典型的なプログラマー像は、自己充足的予言となったのだ。

キャロライン・クリアド=ペレス(著)神崎朗子(翻訳)『存在しない女たち:男性優位の世界にひそむ見せかけのファクトを暴く』(河出書房新社)
キャロライン・クリアド=ペレス(著)神崎朗子(翻訳)『存在しない女たち:男性優位の世界にひそむ見せかけのファクトを暴く』(河出書房新社)

となれば現在、採用プロセスへの導入が進んでいる秘密のアルゴリズムのおかげで、そうした密かな偏見がふたたび増長しているとしても、驚くべきことではない。

アメリカのデータサイエンティストで、『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』(インターシフト刊)の著者、キャシー・オニールは、『ガーディアン』紙の記事において次のように説明している。テクノロジー業界専門のオンラインプラットフォーム「ギルド(Gild)」(現在では投資ファンドのシタデルに買収され、傘下となった)を利用している企業は、求職者の「ソーシャル・データ」を綿密にチェックすることで、履歴書に書かれた以上の情報を入手していると説明した。

つまり、求職者たちがオンラインで残した足跡をたどるのだ。このデータは求職者たちを「社会資本」(ここでは、あるプログラマーがそのデジタル・コミュニティにとってどれほど不可欠な存在かを示すもの)によってランク付けするのに使用される。これは「ギットハブ(GitHub)」や「スタック・オーバーフロー(Stack Overflow)」などの開発プラットフォームにおいて、コードの共有や開発にどれだけ時間を費やしたかによって、測定することができる。だが、「ギルド」がふるいにかける膨大なデータから見えてくるのは、それだけではない。

ウェブでマンガを読むこともプラス要素に

たとえば、ギルドのデータによれば、ある日本のマンガのウェブサイトをよく見ているのは、「優れたプログラミング能力を示す有力な判断材料」となる。したがって、このサイトをよく見ているプログラマーは、高評価を獲得する。なかなか面白いが、オニールも指摘しているとおり、そういうことで高評価を与えるのは、ダイバーシティを重要視している人なら警戒すべき事態だと思うはずだ。女性たちは世界の無償労働の75%を担っており、マンガのことでオンラインチャットで盛り上がっている暇はないはずだ。さらにオニールは、「テクノロジー業界の例にもれず、もしそのマンガのサイトの訪問者も男性ばかりで、性差別的な発言が目立っているとすれば、テクノロジー業界の大勢の女性たちは、たぶんそんなものは見ないでしょう」と述べる。

もちろん、ギルドは女性を差別するアルゴリズムを意図的に開発したわけではない。彼らが目指したのは、人間の偏見を取り除くことだった。しかし、そうした偏見がどのように作用するかを認識していなければ、そして、データを収集したところで科学的根拠にもとづいた方法を構築しなければ、旧弊かつ不公平な体制を助長してしまうだけだ。女性の生活は男性の生活とは異なることを考慮しなかったことで、ギルドのプログラマーたちはそれとは気づかずに、女性に対する偏見の含まれたアルゴリズムを考案してしまったのだ。