患者ケア用の各種AIボット(carebots)は、安全性と快適性、臨床的有効性の確保を前提とした開発が進められている。一方で技術の実用化にあたり、ケアボットが「倫理的判断を必要とする状況」に直面する場合がある。米ノースカロライナ州立大学(NCSU)のチームは、「AIの意思決定プログラムに倫理指針を効果的に取り入れる」研究に取り組んでいる。
AI and Ethicsに掲載された同研究では、「ADC(Agent, Deed, and Consequence)」と呼ばれる機械学習モデルを提唱し、道徳的な意思決定の複雑さに対処しようとしている。著者らによると、従来の取り組みは結果に焦点が当てられた「功利主義的」な推論が中心で、人間的な倫理的判断への考慮が不十分であった。人間が倫理的判断を行う際には、結果以外にも2つの要素が考慮されるという。1つ目は「行動の意図と行動者の性格」で、その行動が善意からか悪意からかという点である。2つ目は「行動そのものの倫理性」で、例えば人は嘘をつくような行為を本質的に悪いものとみなす傾向がある。
ADCモデルは、行動に対して正と負の直感的評価を与え、一方でルールを破ることに対する受容性にも正と負の判断を生成することで、倫理的意思決定をAIに組み込もうとする。一例として「もし看護師が、急を要する患者の治療を優先するため、不愉快な要求をしてくる別の患者に対して嘘をつくとしたら、その意思決定を多くの人は倫理的に許容する」といったケースがある。本研究ではADCモデルにより、このような現実世界で起きる倫理的意思決定をAIに反映させる可能性を模索している。
著者でNCSUで准教授を務めるVeljko Dubljević氏は「このモデルはケアボットを例として、人間とAIのチーム化(HAIT: human-AI teaming)の広い範囲に適用できる。社会は倫理学者とエンジニアの共同作業を必要としており、未来はそこにかかっている」と語った。
関連記事: