【無料】AIによる制作「ディープフェイク」が社会に与えるインパクト

AIによる制作「ディープフェイク」が社会に与えるインパクト

AIや機械学習は既存のデータに対する予測や識別に活用されるというイメージが強い中、近年ではディープラーニングを用いて、画像、動画、音声、文章を新しく生み出す技術(「深層生成モデル」)が実現されています。

 

20年ほど前に、PhotoShopなどの画像編集ソフトによって偽物画像が作成されていました。ディープラーニングの技術が発展し、今では以前と比べ物にならないくらい本物に近い「フェイクコンテンツ」が作れるようになってきました。

その中で最も有名なものは「ディープフェイク」です。

ディープフェイクによって、画像や動画の登場人物の顔を別人の顔と差し替える、二人の顔の特徴をミックスする、実在しない人物の画像を生成するなど、その種類も難易度も急成長しています。

 

例えば、以下のようなクオリティの高い作品が生成されました。

  • 2018年、映画監督のジョーダン・ピールと彼の映像制作会社が精巧に作成した、バラク・オバマ元米国大統領によるトランプ元大統領への暴言を晒したフェイク動画

https://youtu.be/cQ54GDm1eL0

  • 2019年、Facebook社(現:Meta社)CEOのマーク・ザッカーバーグ氏のスピーチを偽造したディープフェイク動画:

https://www.instagram.com/p/ByaVigGFP2U/?utm_source=ig_embed&ig_rid=99152abc-369e-447e-b0c2-0d6d36032fcf

  • SNSで拡散された、有名な俳優のフェイク動画

https://youtu.be/wq-kmFCrF5Q

 

画像だけではなく「ディープフェイクボイス」や高度言語モデルによる偽造文章などマルチモーダルなフェイク技術が展開されています。

 

初めてディープフェイクを制作した人(ハンドルネームが「deepfakes」)は有名人の顔をポルノ動画に載せて、それをSNSに投稿し、大きな反響を呼び起こしました。彼が使ったAIのプログラムはオープンソースとして公開されてしまいます。そうすると、その無償ソフトウェアと悪戯の材料となる写真さえあれば、素人でもフェイクデータを生成できる時代となりました。ただ、本物と区別がつかないほどの高いクオリティは専門家でないと実現しにくいのが現状です。

 

ディープフェイクの悪用例

オランダのこちらのサイバーセキュリティのレポートによると、2019年10月の時点でディープフェイク・コンテンツの大多数はポルノ動画が占めています。これは、名誉毀損、著作権法違反の罪に該当し、日本でも2020年に逮捕事例があります。

https://regmedia.co.uk/2019/10/08/deepfake_report.pdf

 

上記以外でも、ディープフェイクは私たちが信じがたいほどの劇的な影響を社会に与える可能性があります。詐欺、証拠の捏造、誹謗中傷など、様々な犯罪が起きやすくなります。また、フェイクニュースや世論操作によって国家安全保障上の問題にまで発展する恐れがあります。例えば、ロシアの反政権派指導者アレクセイ・ナバリヌイ氏の派閥への信用を失墜させるためにフェイク動画が作成されました(1)。

悪用で注目を集めるケースが増えている中、悪用を防ぐための技術開発と法体制の整備が喫緊な課題となっています。

 

さらに怖いのは

(その1)

AIで生成されたディープフェイクは、人間だけではなく、偽物を識別するアルゴリズムさえ騙す力を持っています。

例えば、現段階で顔認証システムを突破する能力も示しています(2)。

(その2)

ソーシャルメディアの普及により、フェイクコンテンツが瞬く間に拡散され、それが私たちの情報収集や思想に顕著な影響を与える力があります。

2018年の米国のマサチューセッツ工科大学(MIT)では、約126,000件のツイート(Twitterに投稿された情報)の情報拡散に関する調査に基づいた研究を行いました。結果として、フェイクニュースは真実の情報よりも、6倍も速くかつ広範囲に拡散されることが示されました。同研究チームによると、「人々はまだ見たものをそのまま信じる傾向にあるため、ディープフェイクは誤報を広めるのに非常に有効な手段である」(3)。

 

逆の問題も!

偽物に変換されたディープフェイクが警戒されている中、本物が偽物と疑われるという全く逆の問題も起きています。 例えば、アフリカのガボン共和国で病気により数週間休んだ大統領の動画がフェイクと間違われ、クーデータ未遂まで招きました。これはまさに「狼少年問題」が乱立する将来を指し示します(4)。


有益な使い方

ところで、ディープフェイクの用途は全てが悪いものではありません。主にエンターテインメントやクリエイティブ分野で、人間社会にとって喜ばしい目的での利用も期待されています。

例1:映像制作を楽にする。

例2:有名な芸術作品を学習させて、新作を生み出す(5)。しかし、ディープフェイクに制作物を模倣させる上で、故人への尊重や著作権など、新たな議論が生まれます。

例3:亡くなった大切な方の写真をもとに「動く擬似写真」に変換し「蘇らせる」(6)。

例4:SNS上でユーザーが、ディープフェイクを活用した顔交換アプリ「Reface」や「ZAO」を楽しんでいる。

例5:株式会社EmbodyMeがリリースしたフェイク映像を生成できるカメラアプリ「xpression camera」(7)がZoomやGoogleMeetでコミュニケーションの円滑化に活躍している。

 

ディープフィクの悪用を防ぐための対策

ディープフェイク技術の成長と並行に、ディープフェイクを検出する技術の研究開発にも国や企業が取り組んでいます。XAI(Explainable AI; 説明可能AI)の研究の発祥となったDARPA(米国国防高等研究計画局)は、ディープフェイク検出技術のプロジェクトに多額な資金を提供しました。

既にディープフェイク検出ツールがいくつか公開しています。例えば、2020年の米大統領選挙に間に合う形で、Microsoftがセキュリティ対策ソフト“Video Authenticator”を発表しました。おかげさまで、ディープフェイクによる顕著な影響は、2020年の米大統領選で確認されませんでした(8)。

各SNS媒体も対策を開始しています。Twitterでは、疑わしい投稿の拡散を阻止するためにユーザーに注意書きを付けるルールを導入しました。Facebook(現Meta)は、1000万ドル超をかけて「Deepfake Detection Challenge」いうディープフェイク検出技術の競技会を立ち上げました。2019年にこの競技会には、Facebook、Microsoft、Amazonをはじめとする2000個以上のチームが参加しました。トップチームでさえ識別精度65%にしか到達できず、ディープフェイク検出がいかに難しいかということを再認識させてくれました。

 

どのような技術も悪用される危険性があります。悪用を防ぐためには国レベルで、法体制と倫理ガイドラインを整備し、国民に注意喚起や教育を施すことが要求されています。

 

フェイク文章の生成

高度な自然言語処理を悪用することで、フェイクニュース、なりすまし文章、偽造文章、スパム/フィッシング文章の作成が懸念されています。

AIを研究する非営利団体のOpenAIが開発した大規模な汎用的言語モデルGPT-2、GPT-3は、文章や楽譜の自動作成、翻訳支援などにおいて素晴らしい機能を発揮しています。一方で、「人間らしい」文章を生成する能力を持つため、偽物ブログや投稿など悪用される危険性が高いです。そのため、セキュリティを守るべく、GPT-2, 3 はオープソースとしては提供されておらず、OpenAI のAPI の利用を申請し、許可を介してのみ利用できます。

 

言語モデルによって生成された偽情報の拡散リスクに関する研究結果が, セキュリティー関連のカンファレンス “Black Hat USA 2021” で発表されました(9)。映像同様に、不正文章を除去するための技術開発が求められています。

 

ディープフェイクを生成する技術

本物と見分けられないような「偽物データ」を生成してくれるのは、敵対的生成ネットワーク(Generative Adversarial Networks; GAN)という技術です。GANをはじめとする、ディープラーニングを用いた生成モデルについては以下の書籍で解説されています。

ディープラーニングG検定(ジェネラリスト)最強の合格テキスト[明瞭解説+良質問題] (SBクリエイティブ)

https://www.amazon.co.jp/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0G%E6%A4%9C%E5%AE%9A-%E3%82%B8%E3%82%A7%E3%83%8D%E3%83%A9%E3%83%AA%E3%82%B9%E3%83%88-%E6%9C%80%E5%BC%B7%E3%81%AE%E5%90%88%E6%A0%BC%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88-%E6%98%8E%E7%9E%AD%E8%A7%A3%E8%AA%AC-%E8%89%AF%E8%B3%AA%E5%95%8F%E9%A1%8C/dp/481561167X/ref=zg_bs_542582_6/357-0088998-4410102?pd_rd_i=481561167X&psc=1

 

 


(1) 参考:https://mainichi.jp/articles/20220104/ddm/003/040/037000c

(2) 参考:https://mainichi.jp/articles/20220103/k00/00m/300/220000c

(3) VOSOUGHI, Soroush; ROY, Deb; ARAL, Sinan. The spread of true and false news online. Science, 2018, 359.6380: 1146-1151.

(4) https://motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/… 

(5) 参考:https://mainichi.jp/articles/20220104/ddm/003/070/030000c

(6) https://www.myheritage.ch/deep-nostalgia

(7) https://youtu.be/HCm0_ZzpBDE

(8) 参考:https://xtech.nikkei.com/atcl/nxt/column/18/00141/102100139/

(9) 参考:https://xtech.nikkei.com/atcl/nxt/column/18/00141/102100139/

視聴済みにして続ける