ディープフェイクの危険性:我々は見破れるか?
- テクノロジー
- BCP・危機管理
2021年3月はじめ、視覚効果アーティストのChris Ume氏が、モノマネタレントのMiles Fisher氏と協力して作成した、俳優トム・クルーズのフェイク動画をTikTokで公開し、SNSで大きな話題となりました。
@deeptomcruise Sports!
♬ original sound – Tom
動画では、トム・クルーズ以外には見えない人物が、ゴルフをしたり、カメラに向かって話をしたり、笑い方やしぐさを見る限りとても自然で、指摘されない限りはフェイクとわからないクオリティに仕上がっています。Ume氏はインタビューで、人工知能(AI)モデルのトレーニングに2カ月かかり、プロ仕様の機材を使って撮影や編集には数日かかったと答えており、またモノマネタレントの協力を得ていることから、誰でも同じようなものをすぐに作れるというわけではありません。しかし技術やツールが進化していけば、より簡単にできるようになっていくことでしょう。ちなみにその製作過程を説明した動画もYoutubeで公開されています。
ディープフェイクとは
こうした動画は「ディープフェイク」と呼ばれます。ディープフェイクという言葉の本来の意味は、AIの一分野である「機械学習」の、とりわけ「ディープラーニング」という手法を使って作成されたフェイク動画を指しますが、現在その定義は広がっており、手法に関わらず高品質で見破ることが難しいフェイク動画を指すと考えていいと思います。
では、ディープフェイクはどのような技術を使って作られているのでしょうか?以前からコンピュータ・グラフィックスの技術を使って顔の凹凸や目など、パーツごとの特徴を抽出し、2人の人間の顔を置き換えることは行われてきましたが、高価なスタジオ向け機材が必要でした。それがAIの進化によって簡単にできるようになったわけです。AIの分野の中でも特に「GAN(敵対的生成ネットワーク)」という技術が決定的に重要です。
GANは、本物と同様の画像を作り出そうとする「ジェネレーター」と、画像が本物がどうかを識別する「ディスクリミネイター」という2つのネットワークから成り立っています。顔を交換したい2人の人物の何千枚もの顔写真をジェネレーターに取り込ませ、可能な限りリアルな偽の画像を作りだします。一方で、ディスクリミネイターに、その作り出された画像が本物か偽物かを判定させます。この2つのネットワークが繰り返し、繰り返し競い合うことで偽の画像を作る精度が高まっていき、最終的に真贋を判別できないほど自然なものに仕上がるわけです。
社会へのインパクト
ディープフェイクが悪用された場合のネガティブなインパクトは大きく、政治家や指導的な立場にある人のフェイク動画が作成され、言ってもいないことを言ったように見せかけることによって人々の投票行動に影響を与えれば、民主主義社会の根幹を揺るがします。また、災害が発生している際に、フェイク動画によって混乱が助長されてしまうような事態も容易に想定されます。
有名な例をひとつ挙げるとすると、2018年にYouTubeで公開された、米国のオバマ元大統領の動画です。24秒あたりで「トランプ大統領は完全にマヌケだ(President Trump is a total and complete dipshit)」とトランプ大統領(当時)の悪口を言っているように見えます。
また、個人レベルであっても、ネット上でのいじめや名誉棄損、脅迫、詐欺などの犯罪行為に利用ができますし、有名人の顔を貼りつけたディープフェイクポルノも既に大きな問題になっています。ちょうど一昨日、米国で、チアリーディングにおける娘のライバルを蹴落とすためにディープフェイク動画を作成したとして、母親が逮捕されるというニュースもありました。
ポジティブな用途も
どんな技術にも同じ事が言えますが、悪用すれば有害である一方、ポジティブな用途の可能性も当然にあります。ディープフェイクの技術については、中国の三大テクノロジー企業のひとつであるテンセントが、2020年7月に発行したホワイトペーパーの中で下記5つの応用例を挙げています。
●テレビ番組や映画制作の強化
新しい映画にすでに亡くなった役者を登場させたり、役者やスタントマンなど生身の人間を危険にさらすことなく派手なアクションシーンを製作したり、また言語吹き替えを自動生成できます。
●エンターテイメントのパーソナライズ化
例えばビデオゲームの主人公の顔をプレイヤーの顔に置き換えることで、コンテンツをよりパーソナライズすることができます。
●eコマースの強化
様々な人種・性別の様々な体型のバーチャルモデルを生成することで、ユーザーがオンラインショッピングのデジタル環境において服を試着したり、インタラクティブな体験をすることができます。
●人間と見分けがつかないバーチャル・アバターの作成
すでにいくつも登場しているバーチャルのアイドルやタレントなどにディープフェイク技術は活用されていますが、今後より実際の人間のしぐさに近づいていくでしょう。
●病人のサポート
例えば、ALS(筋萎縮性側索硬化症)などの病気で声を失った人が、声のディープフェイクを利用して発話をし、会話することができます。
また、2020年6月に公開された、ロシア共和国でのLGBTQの迫害に関するドキュメンタリー映画『チェチェンへようこそ(Welcome to Chechyna)』では、ディープフェイク技術で顔を差し替えることによって、登場人物のプライバシーを秘匿しました。臨場感を失わずに、登場人物の身元を保護することができたわけです。
どうすれば見破れるか
このようなディープフェイク動画を、フェイクと見破るにはどうすればいいのでしょうか。研究者や企業もフェイクを野放しにリスクを認識しており、例えばFacebookは昨年、「Deepfake Detection Challenge」というフェイクを検知する技術のコンテストを開催しています。また、マイクロソフトも2020 年9月に「虚偽情報対策に向けた新たな取り組みについて」という声明を発表し、Microsoft Video Authenticatorという分析ツールを紹介しています。 このように、プラットフォーム企業が積極的に技術開発することで、コンテンツに触れるユーザーに「これはフェイクかもしれません」と警告を出せれば、とても効果的だと思われます。
ただし、フェイクを検出する技術の開発とフェイクを製作する技術の開発は、イタチごっことなる可能性が高いです。ついては、それと同時にユーザー側でフェイクに騙されないリテラシーを涵養することも大切になると思われます。
例えばここに、2019年6月に公開され、話題をさらった、Facebookのマーク・ザッカーバークCEOのディープフェイク動画があります。
この動画の中でザッカーバーグ氏は、「想像してみてください。何十億人もの人々から盗んだデータ、全ての秘密、生活と将来を完全にコントロールする権限を持つ1人の人間を」と発言し、自分が多くの人のプライバシー情報を持ち、そのために絶大な力を持っていることを示唆しています。この動画は2年前のものでありますが、動画自体からフェイクであることを瞬時に見抜くのは難しいと思います。しかし、当時ザッカーバーグ氏は個人データの管理やプライバシー保護、コンテンツ監視のやり方について何度か議会公聴会に呼び出されて釘を刺されており、その背景を知っていれば、「今このような発言をするはずがない」、と疑いの目をもって見られるはずです。
Artificial Intelligence(人工知能)は大量のデータを解析することは得意ではありますが、Human Intelligence(人間の知能)のように、文脈を読みとったり背景を踏まえて判断をしたりということは今のところできません。「人工知能」というテクノロジーと「人間の知能」の両輪を活用することで、相当部分のディープフェイクを見抜くことができるのではないでしょうか。
(根来 諭)
March 18, 2021
参考情報
ディープフェイク技術は有益、テンセントが主張する5つの用途 (MIT Technology Review)
https://www.technologyreview.jp/s/214823/the-owner-of-wechat-thinks-deepfakes-could-actually-be-good/