X(旧Twitter)がAIによるファクトチェック導入で議論を呼ぶ
イーロン・マスク氏が率いるX(旧Twitter)が、AIチャットボットを活用してファクトチェックを行う「コミュニティノート」の導入を決定したことで、誤情報や陰謀論の拡散を助長するのではないかという懸念が浮上しています。
元イギリス技術大臣のダミアン・コリンズ氏は、Xが大規模言語モデル(LLM)を用いて、物議を醸す投稿に対して説明や修正を行うコミュニティノートをAIが作成することを発表したことを受け、「ニュースの編集をボットに任せている」と批判しました。これまで、コミュニティノートは人間によって作成されていました。
AIによるコミュニティノート作成の仕組み
Xは、AIが生成したファクトチェックノート(一部のX投稿の下に表示されるもの)を使用することで、「インターネット上の情報の質を向上させる最先端技術」を進歩させることができると述べています。Xの製品担当バイスプレジデントであるキース・コールマン氏は、AIが生成したノートは人間がレビューし、多様な視点を持つ人々が有用であると判断した場合にのみ表示されると説明しています。「私たちは、このパイロットプログラムを、AIが人間を支援し、人間が決定するという形になるように設計しました」と述べています。
ユーザーは、X独自のGrokやOpenAIのChatGPTなどのLLMを使用して、独自のAIノートライターを構築し、APIを使用してXに接続できます。AIシステムによって提出されたノートは、人間が書いたノートと同じルールに従う必要があり、人間ユーザーによる評価を受け、その正確性を検証する必要があります。また、すべてのユーザーに表示されるためには、歴史的に異なる視点を持つユーザーから「役立つ」と判断される必要があります。
懸念の声
しかし、コリンズ氏は、このシステムはすでに悪用される可能性があり、コミュニティノートに取り組むAIエージェントは「人々の意見を産業的に操作する」可能性があると指摘しています。AIが生成したノートが誤情報や偏った情報を拡散するリスク、AIの偏見が反映される可能性、そしてAIの判断に対する透明性の欠如などが懸念されています。
- AIによる誤情報の拡散
- AIの偏見による情報の歪曲
- AIの判断プロセスの不透明性
Xは、AIによるコミュニティノートの導入によって、より多くの情報にコンテキストを提供し、プラットフォーム上の情報の質を向上させることを目指していますが、その実現には多くの課題が残されています。