アトラシアン本社の情報サイト『WORK LIFE』より。ライターのケリー・マリア・コーデュッキ(Kelli María Korducki)が、医薬品開発と人材採用におけるAI活用の例にもとづきながら、AIの可能性とリスクについて考察する。

本稿の要約を10秒で

  • 医薬品開発のプロセスを生成AIが劇的にスピードアップさせつつある。
  • 一方で、人材採用支援のAIツールに差別的な判断を下すリスクがあることが明らかにされている。
  • 人材採用支援のAIツールを使う際には、AIによる判断を人間が監視し、公平性を確保しなければならない。

製薬イノベーションの最前線に立つAI

革新的な医薬品の開発には通常5年から20年以上を要するとされてきた *1 。というのも、新しい医薬品の開発には、徹底的な前臨床研究が必要とされるからだ。ところがいま、製薬の研究者らは、AIを駆使し、医薬品開発のプロセスを劇的に短縮させ始めている。

■ 生成AIが新たな抗生物質の探索プロセスを大幅にスピードアップ
米国マサチューセッツ工科大学(MIT)の研究チームは「治療抵抗性感染症(特に難治性が高いとされるMRSAを含む)」に対する新しい抗生物質を設計する目的で、生成AIのアルゴリズムを活用した *2 。彼らは、生成AIを用いて3,600万種類もの化学化合物を生成し、その中から有効性・安全性が高く、かつ、既存の抗生物質とは本質的に異なる可能性の高い化合物を予測したのである。現代社会では、抗生物質耐性を持ったウイルスが世界数百万人規模の生命を脅かしている。ゆえに、MITの画期的な成果は、世界の医療に多大な影響を与える可能性がある。

■ 医薬品開発での応用で確認できるAIの可能性
AIの最もエキサイティングな能力は、反復的な作業を、人間をはるかに超える猛烈なスピードで処理できることだ。このAIの能力により、人間は、より革新的でクリエイティブな作業に多くの時間と労力を割けるようになる。医薬品開発におけるAIの活用は、こうしたAIの可能性を示す好例といえるだろう。

鮮明になる人材採用にAIを使うリスク

「年齢」「人種」「性別」といった非業績の変数が、企業における人材採用や昇格・報酬の慣行に影響を与えてきたことは周知のとおりだ。そして最近の研究を通じ、すべてにおいて中立であるはずのAIが、偏見・差別にもとづく採用人事の悪しき慣行を踏襲してしまうリスクがあることが明らかにされている。

■ AIの行動には人間の偏見が反映される
ChatGPTを含む5つの主要な大規模言語モデル(LLM)を対象とした、ある研究 *3 によると、人材採用を支援する生成AIツールは、男性か女性かの違いによって、候補者に提示する給与に格差をつけようとする傾向があるという。

この研究は、人材採用支援の生成AIツールに対し、同等の資格を持った男性候補と女性候補の給与を提案させる形式で実施された。その結果、女性候補者への推奨給与(年収)は28万ドルだったのに対して、男性候補者のそれは40万ドルであったという。

また、その生成AIツールには、白人候補者には非白人候補者よりも高い給与を、外国人候補者には難民候補者よりも高い給与を提案する傾向も見られたようだ。

AIツールの使用が、人材採用における偏見・差別を助長する可能性を示唆する研究は、このほかにもある。例えば、2024年に米国ワシントン大学の研究者らが調査したところ、生成AIツールが候補者の性別や人種にもとづいて順位づけを行っていることが明らかになった。この研究は、550件以上の実際の履歴書を使って行われた。その結果、LLMは、白人に分類された候補者を85%の確率で優先し、女性に分類された候補者を優先する確率は11%でしかなかったという。加えて、黒人男性が白人男性よりも優先されるケースは一度もなかったようだ。

ちなみに、人事・財務プラットフォーム「ワークデイ」を相手取った集団訴訟も進行中だ。原告団は、ワークデイの人材採用AIツール *4 が、40歳以上の応募者を違法に差別していると主張している *5 。この判決の影響は数億人規模の求職者に及ぶ可能性がある。

■ 先進地域のAI活用のルールを取り入れる必要性
かつては、AIによって人材採用プロセスから偏見が排除できると考える研究者もいた *6 。しかし実際には、人材採用支援のAIツールによって、候補者選びや報酬における不当な格差 *7 が助長されるリスクがあるようだ。

だからといって、人材採用支援のAIツールの使用を止めるべきと主張するつもりはない。大切なのは、人材採用にAIを適用する十分に認識したうえで、人間による監視を行うことである。言い換えれば、人事的な作業の効率化・合理化にAIツールを使いたいのであれば、一般倫理の観点と意思決定を公平に行うという観点から、AIの行動を監視するのが望ましいということだ。

米国における一部の地域ではすでに、人材採用におけるAIによる差別から人々を法的に保護する施策の整備が始まっている。

例えば、ニューヨーク市では、2023年7月から「自動雇用決定ツール法(Automated Employment Decision Tools Law)」 *8 を施行している。これは、第三者監査人の承認と候補者への通知なしに、雇用主が採用や昇進にAIツールを使うことを禁じる法律だ。また、イリノイ州とコロラド州も同様の法律を成立させており、それぞれ2026年1月1日と2月1日に施行される *9

企業は、これらの先行事例を参考にしながら、同様のルールを社内方針として取り入れたほうが良いだろう。また、それを行う企業が、AIツールの利点を最大限に生かしながら、そのリスクを回避できる、AI時代の最良の組織になる可能性は高い。