\r\n\r\n
オンライン上のアイデンティティが直接的に自分と結びつく世界では、完全な複製が可能になることが心配されますが、それこそテクノロジーの出現がもたらすものです。
この技術が安価で使いやすくなるにつれ、ディープフェイクの危険性、さらには本物の偽物を見分けるにはどうすればいいのか?
ディープフェイクとは、映像や画像に写っている人物を別人の似顔絵に置き換えたメディアに対してつけられた名称です。ディープラーニング」と「フェイク」を組み合わせた言葉で、機械学習のアルゴリズムと人工知能を使い、リアルでありながら合成されたメディアを作ることができます。
最も基本的なケースとして、あるファセットが他のモデルに重なっていることがあります。最悪の場合、deepfakeの技術は、偽のポルノビデオ、フェイクニュース、デマなどに無防備な犠牲者を縫い込みます。
この技術の成り立ちについては、ディープフェイクの解説記事で詳しく紹介しています。
フェイク画像はいつの時代も存在する。何が偽物で何が偽物でないかを見極めることは、特にデジタルメディアの台頭により、人生においてよくあることです。しかし、偽造技術は、偽造画像や偽造動画に比類ない精度をもたらし、別の種類の問題を引き起こします。
ジョーダン・ピールがバラク・オバマになりきって時事問題を論じた動画は、広く注目を集めた最初のフェイクビデオのひとつです。
このビデオは、見た目が粗く、音も奇妙で、クローンの顔には粒子の粗さが見られますが、それでも偽造技術の存在を示しています。
また、「マトリックス」のネオ役をキアヌ・リーブスではなく、ウィル・スミスだったらどうなっていただろうかと考えたことはありませんか(ない人はいないでしょうけど!)。どのようなものだったのでしょうか。迷うのはやめましょう。
この2つの動画は悪意のあるものではなく、コンパイルするのに何百時間も機械学習が必要なものです。しかし、同じ技術は、十分な学習時間と計算能力さえあれば、誰でも使うことができる。ディープフェイクの技術を使うには、当初はかなり高いハードルがありました。しかし、技術が進歩し、参入障壁が著しく低くなると、偽物の否定的で有害な使い方が発見された。
ディープなフェイクの闇を掘り下げる前に、『シャイニング・フューチャー』のジャック・ニコルソンに代わってジム・キャリーを紹介しよう。
ディープフェイク技術の主な脅威の一つは、ディープフェイクポルノとも呼ばれる合成○○素材です。エマ・ワトソン、ナタリー・ポートマン、テイラー・スウィフトなど、有名な**セレブの顔を使った偽の**周波数が数万個存在するのです。
これらはすべて、休日のディープな機械学習アルゴリズムを用いて、成人**女優の身体に有名人の顔を縫い付けたもので、多数の**コンテンツサイトで数千万回の視聴を集めました。
しかし、これらのサイトはいずれも有名人の偽物をターゲットにしたものではありません。
ディープフェイク検出・分析会社SensityのCEO兼チーフサイエンティストのジョルジオ・パトリーニ氏は、「彼らがそれらを削除してフィルタリングしようとする強い理由がない限り、何も起こらない」と述べ、人々がそのようなものをアップロードすることはまだ自由であると語った。何億人もの人々が閲覧しているこれらのサイトに対して、何の影響も与えずに素材の種類を変更することができます。"
これらの動画は搾取的であり、一部の偽クリエイターが主張するように被害がないとは到底言えません。
芸能人の合成○○より酷いのは?そうです、無防備な女性を主人公にした偽物の○○の餌です。ある感性研究によると、ソーシャルメッセージングアプリ「Telegram」上のディープフェイクボットが10万枚以上のディープフェイク**画像を作成したことが判明しました。画像の多くは、友人、彼女、妻、母親など、ソーシャルメディアのアカウントから盗まれたものです。
このロボットは、画像アップロードにディープフェイクや機械学習、人工知能などの既存の知識を必要としないため、ディープフェイク技術を大きく発展させるものとなっています。1枚の画像で済む自動処理です。さらに、Telegramボットは**画像**でしか動作しないようで、プレミアムサブスクリプション(より多くの画像、ウォーターマークの除去)のコストはばかばかしいほど低くなっています。
芸能人の偽写真と同様に、電脳ボットの偽写真も搾取、悪用、非倫理的である。夫、パートナー、家族、同僚、上司などの受信トレイに簡単に入り込み、その過程で人生を台無しにしてしまうのです。恐喝などの可能性が非常に高く、リベンジポルノなど既存の問題の脅威を高める。
また、Telegramに偽の写真を投稿することも問題になっています。 Telegramはプライバシーを重視したメッセージングサービスであるため、ユーザーに大きな混乱を与えることはありません。ポルノボットや、**素材**に関するボットを削除する方針だが、今回の件では何の措置もとられていない。
ジョーダン・ピールがバラク・オバマを演じたのを見たことがあるんですね。そのビデオの中で、彼は偽物の危険性を警告しています。ディープフェイク技術に関する大きな懸念の一つは、誰かが**あまりにもリアルな映像を公開し、それが何らかの悲劇を引き起こすことです。
極端な話、偽物の映像コンテンツは戦争の引き金になると言われています。しかし、それ以外にも大きな影響があります。例えば、大企業や銀行の最高経営責任者が不利な発言をする様子を撮影したフェイク動画が、株式市場の暴落の引き金になる可能性があります。繰り返しになりますが、これは極端な話です。しかし、映像は生身の人間が確認・検証できますし、世界の市場は瞬時にニュースに反応し、自動的に売り込まれることも起こります。
もうひとつは、ボリュームです。ディープフェイクコンテンツ**が安価になればなるほど、同じフェイクメッセージを異なるトーン、場所、スタイルなどで配信することに注力し、同一人物によるディープフェイクコンテンツが大量に発生する可能性が高くなります。
デマネタの延長線上で、ディープフェイクがとてつもなくリアルになることを考えなければならないのです。そのため、内容とは関係なく、動画が本物かどうかを疑う人が出てくるほどです。
誰かが犯罪を犯して、その証拠がビデオしかなかったら、「捏造だ、○○だ」と言われないようにするにはどうしたらいいのでしょうか?逆に、誰かのために偽の証拠映像を見つけるのはどうでしょう?
LinkedInやTwitterのプロフィールには、戦略的な組織における上級職の役割が詳細に記載されているが、これらの人物は実在せず、ディープフェイク技術を使用して生成された可能性が高い。
とはいえ、これは特別な問題ではありません。当初から、**、スパイネットワークや企業は、情報を収集し、議題を推進し、キャンペーンを操作するために、偽のプロファイルと人を使用しています。
セキュリティに関しては、ソーシャルエンジニアリングがすでに問題になっています。人は他人を信頼したいと思うものです。それが私たちの自然な姿なのです。しかし、この信頼がセキュリティ違反やデータ盗難などにつながることもある。ソーシャルエンジニアリングは、通常、電話やビデオ通話などによる個人的な接触を必要とします。
セキュリティコードなどの機密情報を入手するために、何者かがディープフェイク技術を使い、ディレクターを模倣することが想定されます。この場合、大量の偽詐欺につながる可能性があります。
ディープフェイクのクオリティが上がれば、それを発見することも重要です。初期の頃は、画像の不鮮明さ、ビデオの腐食やアーティファクトなど、不完全なものが簡単な手がかりでした。しかし、この技術を使用するためのコストが急速に低下しているため、これらの問題は減少しています。
虚偽の内容を検出する完璧な方法はありませんが、ここでは4つの便利なヒントを紹介します。
偽物の発見と戦っているのは、あなただけではありません。大手ハイテク企業数社がディープフェイク検出のためのツールを開発し、他のプラットフォームはディープフェイクを恒久的にブロックする措置をとっています。
例えば、マイクロソフト社のディープフェイク検出ツール「Microsoft Video Authenticator」は、数秒以内に解析し、その真偽をユーザーに知らせます(例として、以下のGIFを参照)。一方、アドビでは、コンテンツを操作から保護するために、デジタル署名を行うことができます。
FacebookやTwitterなどのプラットフォームは、悪意のあるディープフェイクを禁止しており(『マトリックス』のウィル・スミスのようなディープフェイクはまだフェアです)、Googleは偽の音声クリップに対抗するために音声合成分析ツールを開発しています。
フェイクメディア検出のスキルを磨きたい方は、フェイク検出テストのリストをチェックして、発見し、学んでください。
2018年にディープフェイクが主流になってから、その主な用途は罵倒**というのが実情です。有名人の顔**を使って偽のポルノを作ったり、ソーシャルメディアで誰かの服を脱がせたりと、世界中の人々を搾取、操作、屈辱することに焦点を合わせています**。
偽造騒動が起きようとしていることは間違いなく、そのような技術の台頭は国民に脅威を与えているが、その進出を止めることはほとんどできない。