AI言語モデルが「障害者への偏見」を含む可能性

自然言語処理(NLP)はAIの一領域として発展をみせ、電子メールのオートコレクトやスパムフィルター、スマートアシスタントなど、話し言葉に関する身近な自動化・合理化技術として定着しつつある。しかし、米ペンシルベニア州立大学の研究チームは、この種のアルゴリズムに「障害者に対する偏見」が含まれる可能性を指摘している。

第29回国際計算言語学会議(COLING)で13日発表された研究成果によると、チームは広く使われる13のモデルを調査したところ、障害者に対する重大な暗示的偏見が含まれていることを明らかにした。研究者らは、形容詞を用いたシンプルな文例を複数用意した上で、障害を持つ人や持たない人を連想させる600以上のワードを生成し、文例中の形容詞をランダムに置き換えた。各モデルでは、それぞれ1.5万を超える文章をテストしている。いずれのモデルも、障害に関連した言葉に対する修飾ではネガティブなものへと変化させており、これが「AI言語モデルが内包するバイアスを反映している」と主張する。

さらに研究者らは、障害者グループと非障害者グループに対して生成された形容詞を調べ、それぞれのセンチメント(テキストが肯定的、否定的、中立的かどうかを評価するNLP技術)を測定した。その結果、障害に関連する単語を含む文章は、含まない文章に比べ、一貫して否定的であることを明らかにした。Twitterデータで事前学習させたあるモデルでは、障害に関連する言葉が使われると、86%の確率でセンチメントスコアがプラスからマイナスに反転していた。

研究者らは「この研究は、人々がどのようなモデルを使用しているのか、そして、実際の人々の日常生活にどのような影響を及ぼすか、を常に気にかける必要があることを示すものだ」とし、身近な技術にも暗示的なバイアスが内包される可能性を認識することの重要性を強調している

関連記事:

  1. 英政府 – 「医療AIのバイアス解消」に向けた新しい取り組みを公表
  2. 大規模バイオデータバンクに入り込むバイアス
  3. 画像解析AIが内包する過小診断バイアス
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事