オーストラリアは国際的にも自殺率の高い国とされ、人口10万人当たり12〜13という死亡率で推移している。オーストラリアのe-Health Research Centreという研究機関では、自殺リスクのある発言を会話エージェント(チャットボット)がどのように扱うか、システムデザインに関する研究を行っている。日常のあらゆる場面にチャットボットが組み込まれていくなか、その開発者は人間のデリケートで複雑な発言を扱う課題に直面している。
Healthier Lives, Digitally Enabled誌に掲載された、同研究機関からの成果報告では、100通以上の遺書を解析し、自殺念慮を持つ人の文章にみられる4つの言語パターンを抽出した。1.抑圧的思考(「どちらか一方」「常に」「決して」「永遠に」「何もない」「完全に」「すべて」「唯一」)、2.論理的誤謬(非論理的で病的な推論、「すべてに失敗してきた。このようにすれば、私は成功できるだろう」)、3.言語イディオム(自殺を暗示するが婉曲的でチャットボットが正しく解釈できないフレーズ「私の魂に神の御慈悲がありますように」)4.否定的感情(「ただ、この重く、圧倒的な絶望」)、という4つに類型している。
自然言語処理技術の進歩によって、これらの自殺を連想する発言を正確に検出できれば、チャットボットはより繊細で配慮のある対応ができるようになる、と研究グループでは推察する。「言葉が現実世界の複雑なシナリオと関連していること」をどのように機械に理解させていくか、その研究領域には発展余地が大きい。
関連記事: