「会話へのAI利用」がもたらす影響

ChatGPTやGPT-4など、大規模言語モデルの先進性を示すニュースが連日報じられている。しかし、この種の技術を日常生活に取り入れる社会的影響はまだ十分に理解されていない。米コーネル大学の研究グループは「会話にAIを用いることで生じる社会的コスト」について調査している。

Scientific Reportsに掲載された同研究では、2種の実験から、対話にAIを利用することのポジティブ/ネガティブな二面性を明らかにした。1つ目の実験では、大規模言語モデルが自動返信するプラットフォーム「スマートリプライ」を用い、219組の参加者には「全員がスマートリプライを使用」「2名のうち1名だけがスマートリプライを使用」「スマートリプライを使用しない」という3条件に割り振って政策課題について討論させた。結果、スマートリプライ使用で「コミュニケーション効率」「ポジティブな感情表現」「コミュニケーション相手からのポジティブな評価」が高まっていた。一方、「スマートリプライ利用をパートナーから疑われた参加者は、自力で返信していると思われた参加者より否定的な評価(協力的ではない・親和性が低い)を受ける傾向」にあった。2つ目の実験では、「スマートリプライなし」「デフォルトのスマートリプライ」「ポジティブな感情トーンを持つスマートリプライ」「ネガティブな感情トーンのスマートリプライ」の4条件で政策課題の討論を行ったところ、ポジティブな感情トーンを持つスマートリプライの存在で、他条件よりポジティブな会話が増加することが明らかとなった。

著者のMalte Jung氏は「テクノロジー企業は、より速くより良くタスクを達成するAIツールの有用性を強調するが、社会的側面が無視されている。我々は孤立して生活しているのではないため、使うシステムは他者との相互作用に影響する。実際にAIを使っているかどうかに関わらず、AIでの文章作成を相手から疑われるだけで、より否定的に評価される傾向には驚いた。これは人々がAIに対して抱く根強い疑念を示している」と語っている

参照論文:

Artificial intelligence in communication impacts language and social relationships

関連記事:

  1. Med-PaLM – Googleが提供する医療用大規模言語モデル
  2. 大規模言語モデルによる医学論文捏造の可能性
  3. 臨床医の信頼を得やすいAIツールとは?
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事