三菱UFJ銀行とみずほフィナンシャルグループが来年春入社の新卒採用で、人工知能(AI)を使った面接システムを試験的に導入したことが分かった、との報道がありました。(東京新WEB・7月6日)
学生が受け答えした内容の優劣をAIで分析し、人事担当者による最終的な判断に役立てるのだそうで、総合商社など他の有力企業でもAIによる評価を検証する動きが広がっているようです。
以下、同東京新聞記事からの抜き書きです。
「三菱UFJ銀行はオンライン上で実施する1次面接でAIを試験導入した。学生はパソコンのカメラで動画を撮影し、用意された質問に回答。録画データを人事担当者とAIが分析・評価する。今年は運用面の課題を検証し、来年から本格的に活用を始める計画だ。
同行は毎年、大量の学生が受験するため、人事担当者の負担軽減が長年の課題だった。AIが評価業務を支援することで人によってばらつきがあった判断基準を整合する狙いもあるという。
みずほFGとみずほ銀行、みずほ信託銀行も今年からオンライン面接の評価に関し、AIを活用して検証を始めた。オンライン面接の普及で録画データの分析がしやすくなり、総合商社やトヨタ自動車グループなど国内有力企業も導入に関心を強めている。」
たしかに、AI面接によれば、人事担当者の負担は減るでしょうし、人事担当者ごとの評価のばらつきも減るでしょう。
しかし、AIによる人物評価については、
○ アルゴリズム・AIによる、伝統的な差別形式の再生産・助長
・ データの偏り(過少代表・過剰代表)
・ 現実に存在してきたバイアスの承継
○ 信用スコアによる、等級・格差社会化
・ 「ブラック・ボックス」問題
・ 不適切なデータの混入可能性、検証困難性
・ 「萎縮効果」による行動の自由と多様性の縮減
・ 差別の再生産、生まれによる差別の復活
・ 「バーチャル・スラム」の形成
といった多くの問題点を抱えています。
(詳しくは、少し前の書籍ですが、『おそろしいビッグデータ―超類型化AI社会のリスク』(山本龍彦 慶應義塾大学教授 著)<朝日新書>が分かりやすいです。)
このため、EUでは、AIによる人物評価を倫理的に高リスクと位置づけ、規制を求めています。日本においても、適切な規制が検討されるべきです。(浜島将周)
― 緑オリーブ法律事務所は名古屋市緑区・天白区・豊明市・東郷町を中心にみなさまの身近なトラブル解決をサポートする弁護士の事務所です ―