クイズ「情シス部門が知っておきたいテーマ」
本人と見分けつかない!? 偽動画によるビジネス詐欺に注意
2023年6月
クエスチョン
AIを使って本物そっくりにまねる技術で、2023年には動画を使っての詐欺リスクも高まるとされているものは?
- ディープフェイク
- ディープイミテーション
- ディープマスク
- ディープアバター
アンサー
1. ディープフェイク
解説
「ディープフェイク」とは、動画の人物に別人の顔を貼り付けて合成し、あたかもその人が動いたり話したりしているように見える動画のこと。もしくは、その技術自体を意味します。AI技術のひとつであるディープラーニング(深層学習)をもとに合成して偽造し、本人の動画がなくとも、静止画である顔写真が1枚あれば合成可能です。
以前はまばたきが不自然など、偽物であると見破りやすかったですが、最近は本人と見ま違うほど精巧な偽動画を作成できます。音声も同様に偽造可能で、ディープフェイクを比較的安価で作成代行するサービスが登場しており、誰でも容易に偽動画・音声を作ることができるようになっています。
ディープフェイクが登場したばかりの頃は、ポルノやいたずらのレベルでしたが、近年は悪意のある用途に利用されています。例えば、ウクライナのゼレンスキー大統領が自国の兵士に投降を呼びかける偽動画が出まわりましたが、のちにディープフェイクであると判明しました。
それらに加え、ビジネス詐欺にも使われ、実際に被害が発生しています。ある海外の企業では、親会社CEOの偽音声による振り込み指示の電話を受け、知らずに振り込んでだまし取られた事件がありました。そういった電話での詐欺の手口は日本でも昔からありましたが、ディープフェイクによって声質から口調まで精巧に再現した偽音声が使われるようになり、だまされるリスクが格段にあがっています。
そして、コロナ禍などを背景にリモート会議が当たり前になった2023年、偽動画によるビジネス詐欺に十分な注意を払う必要が高まっています。現時点では残念ながら、ディープフェイクの動画や音声をデジタル的に見破るセキュリティツールやサービスは存在していません。伝達内容や本人性の確認を複数の方法やルートからできるルール・体制を事前に整備しておくなど、アナログですが可能な範囲で対策するようにしましょう。