AIケアボットに倫理的判断を組み込む

患者ケア用の各種AIボット(carebots)は、安全性と快適性、臨床的有効性の確保を前提とした開発が進められている。一方で技術の実用化にあたり、ケアボットが「倫理的判断を必要とする状況」に直面する場合がある。米ノースカロライナ州立大学(NCSU)のチームは、「AIの意思決定プログラムに倫理指針を効果的に取り入れる」研究に取り組んでいる。

AI and Ethicsに掲載された同研究では、「ADC(Agent, Deed, and Consequence)」と呼ばれる機械学習モデルを提唱し、道徳的な意思決定の複雑さに対処しようとしている。著者らによると、従来の取り組みは結果に焦点が当てられた「功利主義的」な推論が中心で、人間的な倫理的判断への考慮が不十分であった。人間が倫理的判断を行う際には、結果以外にも2つの要素が考慮されるという。1つ目は「行動の意図と行動者の性格」で、その行動が善意からか悪意からかという点である。2つ目は「行動そのものの倫理性」で、例えば人は嘘をつくような行為を本質的に悪いものとみなす傾向がある。

ADCモデルは、行動に対して正と負の直感的評価を与え、一方でルールを破ることに対する受容性にも正と負の判断を生成することで、倫理的意思決定をAIに組み込もうとする。一例として「もし看護師が、急を要する患者の治療を優先するため、不愉快な要求をしてくる別の患者に対して嘘をつくとしたら、その意思決定を多くの人は倫理的に許容する」といったケースがある。本研究ではADCモデルにより、このような現実世界で起きる倫理的意思決定をAIに反映させる可能性を模索している。

著者でNCSUで准教授を務めるVeljko Dubljević氏は「このモデルはケアボットを例として、人間とAIのチーム化(HAIT: human-AI teaming)の広い範囲に適用できる。社会は倫理学者とエンジニアの共同作業を必要としており、未来はそこにかかっている」と語った

関連記事:

  1. WHOの新指針 – 医療AIの倫理およびガバナンス
  2. AIに臨床的な共感を代替させてはいけないのか?
  3. 認知症支援チャットボットの可能性と改善点
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事