
- メタは、他社のAIプラットフォームによって生成されたコンテンツにラベルを付けを行う独自のAI技術を使用する計画を発表した。
- 背景には、AIが生み出す誤情報が政治に悪影響を与える懸念があり、たとえばディープフェイク音声が政治的な呼びかけに使用されたケースが挙げられている。
- しかし、メタのポリシーに即効性があるのか、本当に害を防げるのかという疑問や不安が上がっており、過去の報告ではメタの審査に問題があることも指摘されている。
AI生成コンテンツがソーシャルメディアに広がるなか、メタ(Meta)が2月6日、新たなポリシーと検出ツールを導入して、透明性の向上と有害コンテンツの防止に乗り出す計画を発表した。しかし一部からは、この取り組みがすぐに効果を発揮するのか、これで本当に害を防げるのかを疑問視する声も上がっている。
Facebookとインスタグラムを傘下に置くメタによれば、他社のAIプラットフォームによって生成されたコンテンツを対象としてラベル付けを開始する予定だという。コンテンツにジェネレーティブAIの特徴が含まれている場合、その情報の開示をユーザーに義務付けることに加えて、メタは独自のAI技術を使って、ジェネレーティブAIコンテンツを識別し、ポリシーを実行するという。
さまざまな変更の実施が「今後数カ月」のあいだに予定されているが、そのひとつとして、Googleやアドビ(Adobe)、マイクロソフト(Microsoft)、オープンAI(OpenAI)、ミッドジャーニー(Midjourney)、シャッターストック(Shutterstock)などの企業の画像にラベル付けが行われることになっている。
メタの国際問題担当プレジデントであるニック・クレッグ氏は、ブログ投稿でこう述べている。「人間が作成したコンテンツとAIが生成したコンテンツの違いがはっきりしなくなってきたいま、人々はその境界線がどこにあるのかを知りたがっている。AI生成コンテンツと初遭遇するケースが多いようだが、弊社のユーザーからは、この最新技術の透明性に対する感謝の声が寄せられている」。
背景にあるのはAIが誤情報を生むということ
メタ独自のAIコンテンツツールはすでに、こうした画像に「Imagined with AI(AIで生成)」というテキストが入った視認可能な透かしを自動で追加している。同社は、視認できない透かしと埋め込み型メタデータも追加しているが、クレッグ氏が述べているように、透かしを取り除いたり、改変したりできないようにするには、まだやらなければならないことも残っているという。
また、同社はAI生成画像や動画、音声を識別するための新たな業界標準の確立を支援することも計画しており、AIの責任ある使用に取り組む非営利団体「Partnership On AI」やオープンスタンダードと技術仕様を策定する標準化団体「 Coalition for Content Provenance and Authenticity(C2PA)」、世界の大手メディア企業で形成される「International Press Telecommunications Council(IPTC)」などの団体とも連携を取っている。
メタのニュースが流れて数時間後、オープンAIも、ChatGPTとDALL-EモデルのAPIが生成する画像にC2PAの仕様を用いてメタデータを組み込む計画を発表した。その一方で、メタデータはコンテンツの信頼性に対処するための「特効薬」ではなく、「誤ってであれ、意図的にであれ、簡単に削除できる」ことを、オープンAIも認めている。
今回、メタがアップデートを実施した背景には、AIが生む誤情報が米国内や世界各国の政治に悪影響を及ぼすのではないかという懸念の高まりがある。ニューハンプシャー州では今年1月、バイデン大統領の声に似たAIのディープフェイク音声が、同州の予備選挙では投票に行かないようにと、住民たちにロボコールで呼びかける事例があった。[続きを読む]
The post 溢れるAIによる ディープフェイク 。 メタ は審査を強化も実効性には疑問 appeared first on DIGIDAY[日本版].
Source: New feed
