ディープフェイク:人工知能の時代に「偽の作者」を作成する技術

29/12/21

近年、ディープニューラルネットワークの開発と実装により、さまざまなカテゴリの画像やビデオを非常に確実に認識できるアプリケーションの開発が加速しています。 

これらは、半世紀以上前に発表された研究にルーツを持つ数学モデルであり、低コストで非常に高性能なコンピューターのおかげで、最近になって急速に開発され、認識などのさまざまな実際のコンテキストでのアプリケーションが可能になりました。顔と人間のスピーチの。

エンターテインメントの世界である程度の成功を収めているが、安全性にいくつかの問題を提起しているアプリケーションは、 ディープフェイク、「ディープラーニング」と「偽物」の組み合わせ。 この用語は、ある人(ターゲット)の画像を別の人(ソース)の画像に重ね合わせて、XNUMX人目の人が特定のことをしたり言ったりすることができる技術によって得られるあらゆる作品を指します。 このようにして、たとえば俳優が役を演じるが、俳優が宣言したフレーズを発声したことのない有名人の顔に彼の顔がリアルに重ねられた、偽のリアルなビデオを取得します。シーン。 より一般的には、 ディープフェイク のツールを介して取得された合成コンテンツを指します 人工知能.

最近、いくつかの記事が作成のための技術の概要を提案しています ディープフェイク そしてそれらの識別のために。 検出技術は、人々に誤解を与えるため、またはより一般的には人々を欺くために特別に作成された画像やビデオを識別するために不可欠です。 作品「ディープフェイクの作成と検出:調査」1 および「ディープフェイクの作成と検出のためのディープラーニング:調査」2、著者は、ディープフェイク製造技術の最近の傾向、および善意と悪意のある使用の可能性について説明しています。

たとえば、映画製作や機械翻訳の分野での合法的な使用に加えて、特にポルノ映画の製作やスピーチの改ざんにおいて、簡単にお金を稼ぐことを目的とした一連の違法な使用があります。世論や選挙に影響を与え、パニックを引き起こし、虚偽の裁判証拠を生成するなど。 

の作成の最初の試み ディープフェイク これは、に基づくモデルを使用して「FakeApp」と呼ばれるアプリケーションを開発したRedditユーザーにまでさかのぼります。 オートエンコーダ 顔画像から主な特徴を抽出し、それらを別の顔画像に再現するために結合されます。 

Un オートエンコーダ は、 エンコーダ から デコーダ、ラベルなしデータ(エンコーダー)のセットの主な特性を抽出し、以前に作成されたコンパクトな表現から開始して入力データ(デコーダー)を再構築する目的で作成されました。 A ディープフェイク を使用して作成できます エンコーダ 人の顔に特化し、このようにして実現されたコーディングを使用して、 デコーダ 他人の顔に特化。

「ディープフェイク」を作成するためのXNUMX番目のテクノロジーは、「生成的敵対的ネットワーク」の使用です。 この場合も、実在の人物に対応しないリアルな画像を作成することを目的としたニューラルネットワークを扱っています。3.  

これらの技術を使用すると、実際の画像またはビデオ(画像または音声)と変更された画像を区別することがますます困難になり、プライバシー、民主主義の生活、国家安全保障の分野で深刻な問題が発生します。  

これらの出版物では、軍事目的で修正された衛星画像が生成された、軍事世界で特に関心のあるいくつかの事例についても言及されていますが、詳細は元の資料にはありません。

区別するのがますます難しくなっているのは事実ですが ディープフェイク 現実から、テクノロジーが私たちの助けになることも事実です。 彼らの作品では、著者は測量で使用される主な分析手法を調査します ディープフェイク、もう一度、の技術を利用することが多い技術 深い学習。 ただし、残念ながら、これらの検出手法は非常に脆弱であり、作成プロセスを変更するには適度な労力で十分です。 ディープフェイク そのため、これらはもはやそのように認識できなくなります。

今日では、多くの場合、ビデオ画像は刑事裁判で使用され、ビデオは法医学の専門家によって認定されています。

しかし、ビデオで見たり聞いたりするものをどれだけ信頼できますか?

ますます少なくなっています...そのため、ITエキスパートをサポートする必要性がますます高まっています(デジタルフォレンジック)の使用を採用し、認識することができる 深い学習 法医学の専門家に。 残念ながら、そうしても、テクノロジーがどのように機能するかを説明するのは必ずしも簡単ではなく、可能でもないため、結果が真実を確認するのに十分でない場合があります。 深い学習 作成または検索する ディープフェイク

したがって、コンテキストの比較検証のためのインテリジェンス技術と方法論を、画像およびビデオ分析の技術ツールと組み合わせる必要があります。

アレッサンドロ・ルゴロ、ジョルジオ・ジャシント、マウリツィオ・ダマート

もっと知ることができます。

- ディープフェイクの作成と検出:調査(arxiv.org

[1909.11573]ディープフェイクの作成と検出のためのディープラーニング:調査(arxiv.org)

最新のAI対応兵器:地球の「偽造」写真| ウィンターウォッチ

最新のAI対応兵器:地球の「偽造」写真-防衛XNUMX

ディープフェイクオートエンコーダーの構築とトレーニング-CodeProject

ニューラル機械翻訳用のエンコーダーデコーダーリカレントニューラルネットワークモデル(machinelearningmastery.com)

AIフェイクフェイスジェネレーターを巻き戻して、トレーニングした実際の顔を明らかにすることができます| MITテクノロジーレビュー

生成的敵対的ネットワーク(GAN)を理解する| ジョセフ・ロッカデータサイエンスに向けて

[1406.2661]生成的敵対的ネットワーク(arxiv.org)

1 YisroelMirskyとWenkeLee。 2021.ディープフェイクの作成と検出:調査。 ACMComput。 生存54、1、第7条(2022年41月)、XNUMXページ。 DOI:https://doi.org/10.1145/3425780

2 Nguyen、TT、Nguyen、QVH、Nguyen、CM、Nguyen、D.、Thanh Nguyen、D。、およびNahavandi、S。、「ディープフェイクの作成と検出のためのディープラーニング:調査」、arXiv e-prints、2021 https://arxiv.org/abs/1909.11573v3

3 この方法で作成された顔の例は、次の場所にあります。 https://thispersondoesnotexist.com (オープニング写真)