自然言語処理(NLP)はAIの一領域として発展をみせ、電子メールのオートコレクトやスパムフィルター、スマートアシスタントなど、話し言葉に関する身近な自動化・合理化技術として定着しつつある。しかし、米ペンシルベニア州立大学の研究チームは、この種のアルゴリズムに「障害者に対する偏見」が含まれる可能性を指摘している。
第29回国際計算言語学会議(COLING)で13日発表された研究成果によると、チームは広く使われる13のモデルを調査したところ、障害者に対する重大な暗示的偏見が含まれていることを明らかにした。研究者らは、形容詞を用いたシンプルな文例を複数用意した上で、障害を持つ人や持たない人を連想させる600以上のワードを生成し、文例中の形容詞をランダムに置き換えた。各モデルでは、それぞれ1.5万を超える文章をテストしている。いずれのモデルも、障害に関連した言葉に対する修飾ではネガティブなものへと変化させており、これが「AI言語モデルが内包するバイアスを反映している」と主張する。
さらに研究者らは、障害者グループと非障害者グループに対して生成された形容詞を調べ、それぞれのセンチメント(テキストが肯定的、否定的、中立的かどうかを評価するNLP技術)を測定した。その結果、障害に関連する単語を含む文章は、含まない文章に比べ、一貫して否定的であることを明らかにした。Twitterデータで事前学習させたあるモデルでは、障害に関連する言葉が使われると、86%の確率でセンチメントスコアがプラスからマイナスに反転していた。
研究者らは「この研究は、人々がどのようなモデルを使用しているのか、そして、実際の人々の日常生活にどのような影響を及ぼすか、を常に気にかける必要があることを示すものだ」とし、身近な技術にも暗示的なバイアスが内包される可能性を認識することの重要性を強調している。
関連記事: