Facebook テロリズムを促進する投稿を削除するAIアルゴリズムにバグ

Photo by iStock
最新ニュース

Facebookは以前から、AIを用いて有害コンテンツを削除する取り組みを進めており、該当する多くの投稿を取り下げてきた。しかしこのたび、テロリズムを促進する過激な投稿の削除に失敗していたことが明らかとなった。同社は今回の不具合について、時間とともに精度と速度が上がるとしているが、今後の改善の必要性が浮き彫りとなった。

The Telegraphによると、FacebookはAIを利用して、有害な投稿を見つけ出し削除する取り組みを進めてきたが、該当する投稿が数週間から数ヶ月ほど放置されていた例もあったという。ただし、対象となるテロリズムは、イスラム国(ISIS)とアルカイダに限定されている。同社は、初期段階の実装では、削除の精度や速度が満足なレベルではないが、時間とともに改善されると説明している。

かねてよりFacebookは、テロリスト関連のコンテンツの削除を積極的に行っており、公式ブログでは過去、3四半期の間に約99%の該当コンテンツを削除したと発表している。加えて、危険が差し迫っていると判断される場合には、すぐに司法当局に通報する体制も整えているようだ。