悪質なディープフェイク動画へのクリエイティブな対策 | アドビUX道場 #UXDojo

Creative Cloud

2017年後半の頃に「ディープフェイク」という言葉が意味していたのは次のようなものでした。定期的にRedditのニッチなフォーラムを訪れる人々が閲覧していた、非常に特殊なAIが生成した有名人のポルノです。その数年後、この言葉は、デジタル製品をオンラインで使用すると当然のように出会う多様な障害、すなわちフェイクニュース、データ漏洩、メディア操作といった、社会が真実として信じる構造を脅かすあらゆるものと同じレベルで扱われる概念になりました。

現在「ディープフェイク」は、人工知能によって作成された、有名人を含む個人を偽装した映像コンテンツを指す言葉として使われます。オンラインにアップロードされたディープフェイクの大半は、依然としてポルノコンテンツが占めているものの、常に性的に露骨なメディアが最大の課題というわけではありません。

近年、ディープフェイクが、民主的なプロセスに対する新たな脅威として注目された出来事がありました。2018年4月、 BuzzFeedが独自のディープフェイク動画を制作し、この新しいテクノロジーが悪意を持って使用される可能性を警告したのです。公開された動画は、バラク・オバマ前大統領の公式演説の動画を素材にして、コメディアンのジョーダン・ピールの口を前大統領の顔に合成し、ピールによるオバマの最上級のモノマネを通じて、次のような厳しい警告を伝えました。

「私たちは新しい時代に突入しつつあります。そこでは、私たちの敵が、ある時点においてある人物が、たとえそれが誰であれ、あることを言ったように見せかけることができます。実際には、その人物がそのようなことを言っていないとしてもです。(中略) 今後、私たちはインターネットを介して得る情報に、もっと警戒しなければなりません」

公式演説をするバラク・オバマ前大統領 (左) と録画スタジオで前大統領のモノマネをするジョーダン・ピール (右) が並べられた画像。
ディープフェイクの危険性を視聴者に警告するため、ジョーダン・ピールがオバマ大統領になりすましたBuzzfeedの動画 出典: BuzzfeedのYouTube動画

クリエイティブと信頼の新たな時代

2019年のData & SocietyのレポートDeepfakes and Cheap Fakesに、ブリトゥ・パリスとジョーン・ドノバンは次のように記述しています。「現在、エンジニア、議員、ジャーナリストたちは、ディープフェイクの役割を定めるための法的規制、機能デザイン、文化的規範を求めることで、このテクノロジーに対応しようとしています」

UXデザインコミュニティは、こうした目的をサポートするために結集しています。ファブリシオ・テシェイラは、2020年1月のUX Collectiveのコラムに「今後10年間、デジタル製品のデザイナーであり続けるために、透明性を考慮したデザインに取り組み、ユーザーに批判的な思考を促すことに注力する必要がある」と述べています。

しかし、ディープフェイクとの戦いにおける透明性とは実際のところ何を意味しているのでしょうか?また、社会のデジタルリテラシーを向上させられれば、ディープフェイクの温床となってきた世間を賑わすデマや確証バイアス(都合の良い情報を集めてしまう心理)を抑制できるのでしょうか?

技術の進歩が、ユーザーがその可能性を理解するペースを上回り続けている限り、その答えはすぐには明確にならないでしょう。

Buzzfeedのオバマ前大統領の動画は、ピールのモノマネの能力に頼ったものでしたが、実は、彼の力を不要にするソフトウェアはすでに存在していました。2016年、アドビはProject Vocoを初めて一般公開しました。これは、わずか20分の実際の音声を使ってトレーニングされたニューラルネットワークから、音声を人工的に生成できるプログラムです。Vocoはオーディオ分野におけるPhotoshopとして提供される予定のものでしたが、その非常に大きなクリエイティブ面のポテンシャル以上に、害を生み出す可能性が懸念されました。

スターリング大学でメディアとテクノロジーの講師を務めるエディ・ボルヘス・レイ博士は、BBCのインタビューに答えて、「アドビは、デジタルメディアを扱うソフトウェア開発に取り組む中で、それと気付かぬまま、写真などの証拠と人々の関わり方を(すでに)大きく変えてしまいました。デジタルメディアを証拠として利用する弁護士、ジャーナリスト、その他の専門家の仕事は、困難なものになりました」と述べました。おそらくこれが、Vocoが未だに商用リリースされていない理由でしょう。

倫理的な編集

ディープフェイクの責任を、何かひとつのソフトウェアに押し付けるのは見当違いです。それは、社会の「真実」との関り方に関する複雑な歴史を無視しています。動画、音声、画像を修正できるプログラムやプラットフォームは今や数多く存在していますが、それらが発明される前でさえ、写真は常に改ざんされやすい媒体として扱われてきました。

リソースと専門技術が必要なディープフェイクから、リソースと専門技術がほとんど不要なチープフェイクのスペクトルを示すチャート。
ブリトゥ・パリスとジョーン・ドノバンによる2009年のData & Societyレポート「Deepfakes/Cheap Fakes Spectrum」より 出典: Data & Society

Deepfakes and Cheap Fakesにおけるパリスとドノバンの主張は、新種であるディープフェイクは、法律が映像を証拠として認めて以来、その信憑性を損なわせてきた一連の不正の新たな段階に過ぎないというものです。数十年にわたり、社会は、法廷や報道の中で偽造写真が使用されるのを目にしてきました。唯一、今日の社会の問題がこれまでと異なる点は、ネット上のコミュニティに誤った情報が配信される速度と規模です。

パリスはこの新しい現象を指して、「情報技術の本能的利用」と表現しています。本物であれ偽物かであれ、情報を共有することで、人々は自身の心の内にある痒い箇所をかいているのです。世の中に対して持っている個人的な先入観にぴったりとハマるセンセーショナルな情報やメディアに遭遇すると、人はすぐ広く拡散せずにはいられなくなります。

研究にょり、誤った情報は、それがフェイクであるからこそ、オンラインコミュニティにより素早く、より広範に拡散されることが確認されています。

FacebookのCEOが、邪悪で世界的な秘密結社のメンバーであることを認める動画が猛スピードで拡散されているときに、ありふれた世界に沿ったコンテンツをわざわざ共有する理由は何でしょうか?

「ほとんどの場合、人々は、共有する内容が真実であるかどうかを気にしていません」とパリスは言います。「ユーザーは必ずしも動画や写真を、現実を映す証拠としては捉えていません。内面に刻まれた個人的な信念と一致してさえいればよいのです。ひとたびコンテンツがある程度広まれば、それは真実味を帯びてきます」

これまでに、いくつかのプラットフォームがディープフェイクやデマへの人手による検閲を試みてきましたが、この問題の解決には苦労しています。YouTubeは、コンテンツ制作者の動機を視聴者がより明確に把握できるように、動画のソースを明記することを免責条項で要求しています。また、The Guardianは、共有したストーリーが別の文脈で使われてデマを煽ることのないように、ソーシャルチャンネルで共有されるすべてのストーリーに日付を入れています。しかしながら、どちらの対応も十分ではありません。

DEEPFAKES Accountability Act(ディープフェイクに関する説明責任法)として知られている米国の審理中の法律は、ウェブにアップロードされるすべての偽のコンテンツに詐欺行為であることを示すウォーターマークを義務付けようとしています。「すべてのアップロードに対してコメントやメモを残すよう要求すれば、アップロードの量を減らせるだろうという発想です。しかし、それが現実的な解決策になるかどうかは不明です」とパリスは言います。この対策は、フェイクコンテンツ作成者に誠実さを求めています。彼らは、これまでに引き起こしてきた混乱に対して、未だ懸念を示さない人々です。

皮肉にも、この問題に対するより洗練された解決策は、ディープフェイクの作成に使用された人工知能と同種のニューラルネットワークの利用です。スーウェイ・ ルゥーは、アルバニー大学のコンピュータービジョン&機械学習の研究室で、Redditに最初のディープフェイクが公開されて以来、ディープフェイクを発見するAIをトレーニングし続けています。この作業は際限なく続くゲームで、ディープフェイクを検出するシステムをトレーニングするたびに、システムの裏をかく新たな手法が発明されます。

ルゥーは当初の手法は、眼の動きに見られるパターンを観察するようにニューラルネットワークをトレーニングするというものでした。人間は通常2〜10秒ごとにまばたきしますが、AIが生成した人間がするまばたきの回数は、はるかに少ない傾向にあります。少しの間、ルゥーの手法は95%の検出率という非常に有効なものでした。しかし、彼が研究成果を発表すると、ディープフェイクの作成者はアプローチを変えました。現在、彼のAIは、人間の目では検出できない、ファイルに埋め込まれているごく些細な人工物の跡を探し続けています。

ルゥーの研究は進捗していますが、その一方で彼は、技術や立法はディープフェイクを解決するものではないと考えています。

「このメディアに対するリテラシーが最大の課題です」と彼は言います。「多くの人々がこうしたフェイク動画に騙されやすいのは、単純に、動画をこのように捏造できるということを知らないことが大きく影響しています。これはウイルスに例えられます。ウイルスが社会に広がり始めた当初に病気になるのは、人々がウイルスから自分を守る方法がわからないからではなく、ウイルスが存在すること自体を知らないからです。いったんウイルスの存在に気づいて、適切な対策を講じることができるようになれば、ウイルスを管理することも可能になります」

マーク・ザッカーバーグに似た人物がカメラに向かって話しかけ、画面下には、「ザッカーバーグ:『広告の透明性向上に努めている』 /『 選挙を保護するための新しい対策を発表』」という偽のCBSNのキャプションが表示されているYouTube動画のキャプチャ。
選挙を保護するための新しい措置を発表するマーク・ザッカーバーグのディープフェイク 出典: Washington PostのYouTube動画

この特殊なウイルスに対する理解がどれほど早く改善されるかは、メディア個人の努力よりも、メディアを配信するプラットフォームとそのデザイナー達にかかっています。両者には明確に信頼できる行動をとる義務があります。パリスは次のように指摘します。「プラットフォーム各社によるフェイクへの対処が、それがどのような種類のフェイクであってもゆっくりとしか進まない一番の理由は、それがビジネスに貢献するからです」。ルゥーもそれに同意しています。「昨年、ようやくFacebookとTwitterが行動を起こしたのは、議会からの圧力があったからです」。2019年10月にエリザベス・ウォーレン上院議員がFacebookについて語ったときに、「営利目的のフェイク拡散マシン」というレッテル貼りをした理由を想像するのは困難なことではないでしょう。

おそらく真の対策とは、誤った情報の拡散を許しているシステムの設計の根本的な見直しです。しかし、機能への影響や、収益へのダメージの可能性を考えると、すぐに行われそうにはありません。テシェイラは彼のコラムに次ように書いています。「必要なのは、フェイクコンテンツを除外するツールを設計し、ユーザーのディープフェイクに対する不信感を高めて、誤った情報の拡散を防止することです。さらに、プラットフォームで働くデザイナー達は、組織内の意識を高め、真実に関する原則を確立し、隠れた思惑のある工作員がどのようにプラットフォーム悪用する可能性があるのかを報告することができます」

プラットフォームが、自身がその登場に関与した問題に対する責任あるソリューションのデザインを行うのを待つ間、パリスは次のような意識を持つことえお提案しています。

誰とコミュニケーションしているのか、それがなぜ社会全体に役立つのかについて、もう少し注意深く考えましょう。

さらに良い方法は、ルゥーが示唆しているようにディープフェイクがウイルスのように振る舞うのであれば、単純に自分をネットから隔離をしてデバイスのスイッチを切ることです。


この記事はThe Solution to Deepfakes May Not Be As Technological As You Think(著者:James Cartwright)の抄訳です

POSTED ON 2020.09.7