児童虐待の捜査で集められた証拠資料は、担当する捜査官の心の健康に悪い影響を与える。暴力や性的な内容で傷つけられた被害者の画像データが携帯電話やコンピューターの中に大量に見つかることは少なくない。秘密を守る義務から、内容について誰かと相談しにくい事情もある。トラウマとなってしまい、虐待の被害者と似たような心的外傷後ストレス障害(PTSD)を抱えてしまう例も報告されている。
オーストラリアのモナシュ大学のプレスリリースによると、同大の情報技術学部のグループはオーストラリア連邦警察(AFP)と協力し、大量の捜査資料をスキャンして素早く分類する機械学習アルゴリズムの実用化に取り組んでいる。『法の執行と地域安全のためのAI(AiLECS)ラボ』と名付けられた研究室は、2019年7月1日に正式発表となった。その取り組みによって、捜査官が不意にショッキングな画像にさらされずに済むことが期待されている。さらに画期的なのは、機械学習アルゴリズムの開発段階で研究者たち自身も暴力的な画像にさらされずに済むシステム『Data Airlock』である。まずは児童虐待がテーマとなり、今後はテロ事件の内容もカバーする方針とのことだ。
同じようなテーマは世界的に広がりを見せており、ロンドン警視庁の法医学部門でもAIが利用されている。またGoogleが2018年に公開した『Content Safety API』も児童ポルノ関連のデータに対抗するAIツールのひとつである。有害な画像データの取り扱いに専門家のチェックは最低限必要であり、できるだけ心の健康に配慮したAIサポートの動きが広がることを期待したい。