Deepfake(ディープフェイク)とは、人の顔を他の人のものに差し替えてしまうAI技術です。
以前より、写真や動画の顔をほかの人に変えてしまうということは行われてきましたが、Deepfakeの場合、
学習したAIが顔を1コマずつ自動的に差し替えます。
先述のコラージュやCGのように人間が時間をかけて加工を行わないので、いったん差し替えの準備ができてしまえば手間がほとんどかかりません。
たとえばこちらの動画では、アーノルド・シュワルツェネッガーの顔がDeepfakeを利用してシルベスター・スタローンに差し替わっています。
技術的な難易度
この技術は、研究所の施設などでなくても市販されている性能の良いパソコンとDeepfakeに関する知識で十分動かすことができます。
先程の動画はかなり精度が高いほうですが、よく見ると顔の部分に多少ノイズが入るのがわかります。
Deepfakeだけを利用して、本物かどうか全くわからないレベルのものにすることは、まだ難しいようです。
この技術の研究がさらに進めば、本物と見分けがつかないレベルのものが沢山出てくることになるでしょう。
何に使われているのか
下世話な話で恐縮ですが、この技術が出回り始めた頃はポルノコンテンツでの利用が目立っていました。
最近になり、政治家の顔を差し替え、言っていないことを言っているように見せかけるものが出始めてきています。
先ほど書いたように、現在はまだ「本物とまったく遜色ないレベル」というわけにはいきませんので見破ることはできますが、あと数年すると技術が更に進み、本物と見分けがつかない偽物動画が多数出てくるでしょう。
技術的には利用のハードルが高いものではないので、政治的な利用やスキャンダル、炎上などに悪用されることも多くなりそうです。
アメリカのカリフォルニア州では法規制を開始
この技術は上記のように非常に厄介な問題をはらんでおり、社会問題にまでなる可能性を秘めています。
実際、アメリカのカリフォルニア州では、以下の法規制が始まったそうです。
- 選挙まで60日以内に、有権者を騙すことを目的とした動画を広める行為を違法化
- 州内に住む人がディープフェイク技術を利用して自分の画像をポルノ動画に合成された場合、法的に訴えることが可能
自分で言った覚えのないことを言っているように見せることができてしまったり、顔だけとはいえポルノ動画に合成をされてしまったりすることは、非常に大きな影響があります。
本人ではなく偽物であるとわかってみていたとしても、視聴者に与える影響は大きいといわざるを得ません。
CG映像で作られたSF映画は偽物だとわかっていても、自然と受け入れてしまいますよね。
ものまねタレントがふざけるのを、マネされている本人が快く思わずに苦情を入れるケースもままあります。(ものまねで行った行為が、本人がやっていないにも関わらず、本人が行った行為として認知されてしまった例などが多々ある)
動くもの、映像というのは非常に力があります。それが本物であろうがなかろうが「目に見えて動いて話している」という事実は記憶や心境に大きな影響を与えます。
今後の動向
Deepfakeは、悪用すると非常に危険な技術であると考えます。
デジタルテロへの利用はかなり高い危険性をはらんでいます。
ですので今後、私はDeepfakeが
以下のようになっていくと予想しています。
- Deepfakeを見破る技術の開発が進む
- 本人の動画であることを証明する仕組みの実現
- 法規制の厳格化
大手の動画サイトなどでは、自動的にDeepfakeを検知するような仕組みも出てくるのではないでしょうか。