べんきょうちゃんの勉強ノート

勉強したことを紹介しつつ、ビジネス、社会問題について話します

デジタルレイプとは何か?

 

ディープフェイクポルノ

10月2日、ディープフェイクポルノが犯罪として全国初で摘発されました。本記事は一年以上前に書いたものですが、公開するのは今日が初めてです。なので情報が古かったらすいません。

 

今回摘発されたディープフェイクポルノで使われたものは芸能人の顔ですが、これからはこれが私たち素人のところまで及んできます。

 

私はこのような行為をデジタルレイプと呼んでいます。

 

 

デジタルレイプ

デジタルレイプは私のつくった造語なので、似たような意味の言葉がすでにあったらすいません。

 

デジタルレイプの意味を説明しますと、本人に身の覚えのないアダルトな動画がネットで出回ることを指します。

 

一見すると、リベンジポルノと似ていると思うかもしれませんが、リベンジポルノが実際にあった淫らな行為の撮影風景を本人の許可なくネットに流出させたり他人に見せたり脅したりするのに対し、デジタルレイプはまったくの捏造動画であるという点です。

 

 

写真一つでエロ動画生成

次のツイートの動画を見てください。

 

 

 

これは一枚の写真から動画を自動生成する技術です。つまり、写真さえあれば誰でも動画が作れるのです。そして写真さえあればエロ動画も作れます。

 

ということはどういうことかと言うと、その人の写真さえあれば本人がやってもいない行為を動画として作ることもできるということです。

 

 

声やしぐさも本人のデータさえあれば復元できる

すでに知っている人もいるかと思いますが、これはAIの深層学習を使った技術なのでDeep Fakeと呼ばれています。

 

これを使えば、例えば、トランプ大統領に人種差別発言をすることも可能になります。大統領となればデータも豊富なので、本人の声でどんな言葉でも言わすことができます。

 

顔だけではなく声やしぐさも模倣できるのです。今はまだ高度な技術ですが。

 

しかし、もちろん今のレベルでは、画像や動画をきちんと解析をすれば本物か作り物かの区別はできます。

 

政治家の問題発言となれば、きちんと解析チームが組まれてそれが本物かどうかが調査されますし、第三者も勝手に調査してくれるでしょう。

 

 

これから一般人のデジタルレイプが始まる

しかし、問題は一般人です。そして問題発言ではなく、エロ動画が作られた場合です。

 

この場合は、それが真実かどうかなど誰も気にも留めないでしょう。エロ動画はただエロければそれでいいのですから。

 

なので、テレビなどに出ている著名人は勝手にエロ動画にされます。著名人はデータが豊富なのもあり、簡単にエロ動画化できるのです。アイコラ(アイドルコラージュ)と一緒です。

 

また著名人だけでなく、一般人もエロ動画化されます。

 

例えば、街中で可愛い女の子を見つけたら撮影して、家に帰ってからエロ動画化するといった具合です。これは男性も対象になりますし、子どもも被害対象になります。

 

過去にフラレた相手や想いを寄せる相手も被害対象になるでしょうし、友達の写真や学校で撮った集合写真から流用することも可能です。

 

 

デジタルレイプ動画は誰でも作れるようになる

考えるだけで恐ろしいと思うでしょうが、しかし、これも本人が楽しむだけならまだマシです。それは、絵のうまい人が勝手に好みの人のヌードを描いて楽しんでいるのと変わらないからです。

 

問題は動画の流出や商売です。エロ動画を作れば誰でもアダルトビデオが制作できるのでそれで商売をすることができます。今回のディープフェイクポルノの摘発はこれにあたります。

 

自分の淫らな映像が勝手に作られて勝手に拡散されるので、デジタルレイプと呼んでいるわけです。

 

つまり、知らないうちに自分が出演している(と受け取られるような)アダルト動画がネットに流され、リベンジレイプみたいなことに遭う可能性が今後は誰の身にも起こり得るのです。これはいじめにも使われるでしょう。

 

 

エロ目的以外で作られるデジタルレイプ動画

芸能人であれば多少の覚悟とサポートがありますが、一般人には皆無です。ある突然身に覚えのない動画が身のまわりの人を中心に広がっているのです。

 

芸能人であれば「フェイクだな」と思われやすいですが、一般人ではなかなかそうもいかないでしょう。フェイク内容が信じられやすいと思います。

 

自分の嫌いな人の精神を追い込むために作って拡散する人も出てくるかもしれません。

そして、恐ろしいことにこれを止める術は今はほとんどありません。

 

もちろん今回の事件のように商業的に動画を大量に作って配布すれば警察も動くでしょう。

 

しかし、例えば、一個人がTwitterや掲示板に気まぐれに載せたデジタルレイプまで取り締まってくれるかどうかは難しいと思います。なぜなら現にアイコラは今もまだ大量にネットに転がっているからです。

 

この問題にどう対処していくかで、この20年代は大きく揺れるかと思います。