バイナンスの前CEOであるChangpeng "CZ" Zhao氏は、AI技術のおかげで自分の声を完璧に真似たビデオでの驚くべき体験を語っている。
Just saw an AI video that mimicked my voice to the point that even I couldn't tell the difference. Scary!
— CZ 🔶 BNB (@cz_binance) April 17, 2025
人工知能で作成されたクリップや画像のモンタージュの中で、趙氏が中国語を話しているように見えるこのビデオは、公人になりすますためにAIが無許可で使用されることへの強い懸念を引き起こした。
生成AIツールを使った仮想通貨業界の幹部のデジタル複製が増加しており、最新の事例では悪意のあるなりすましが発生しています。2023年にBinanceのCEOを退任した趙長鵬(CZ)氏は、以前からディープフェイクのなりすましの危険性を警告していましたが、現在も仮想通貨業界に影響力を持ち続けています。
2024年10月、CZ氏は具体的な警告を発し、自分の姿を模した改ざん動画を信用せず、仮想通貨の送金を要求する動画コンテンツを信じないようユーザーに呼びかけました。
ディープフェイクが仮想通貨業界に増大する運用リスク
CZ氏の最近の経験によると、なりすまし手法は従来の静止画やテキストを使った詐欺から、高度な音声・映像シミュレーションへと進化しており、憂慮すべき傾向が見られます。
Binanceの元最高コミュニケーション責任者であるパトリック・ヒルマン氏は2023年、詐欺師がZoomでプロジェクト関係者と会議するために彼のディープフェイク動画を使用したことを明らかにしました。詐欺師はヒルマン氏の過去のインタビューやオンライン出演映像を収集し、本物のBinanceの公式呼び出しのように見せかけたのです。
先進的な音声複製技術により、本人ですら見分けがつかないほど精巧に人物を模倣できるようになり、ソーシャルメディア上のなりすましを超えた深刻なセキュリティ脅威となっています。
数百万ドル規模のディープフェイク詐欺が示す危険性
2月に香港のArup社の従業員が、Microsoft Teamsの会議中に約2500万ドルを騙し取られる事件が発生しました。『サウスチャイナ・モーニング・ポスト』によると、会議に参加していたUK本社の財務ディレクターや同僚の全てがAIによって生成された偽物だったとのことです。
音声クローン技術の一般化が進む
リアルな音声クローンを作成する技術は、わずか60秒未満の音声サンプルで可能になり、ElevenLabsなどのサービスで簡単に利用できるようになりました。ある金融機関の1月のデータでは、英国成人の25%以上が過去1年間に音声クローンを使った詐欺に遭遇したと回答しています。
CyFlareの脅威インテリジェンスによると、ダークネット市場では5ドルから音声クローンAPIが販売されています。商用版にはウォーターマークシステムやオプトイン手続きがありますが、オープンソースや違法版にはこうしたセキュリティ機能がありません。
2024年3月に正式採択されたEUの「人工知能法」では、公共空間で使用されるディープフェイクコンテンツに明示的なラベル付けが義務付けられます。ただし完全施行は2026年まで行われず、この空白期間に脆弱性が生じる可能性があります。
現在、ハードウェアメーカーは規制の障壁がないことを受け、消費者向け製品に検出機能を組み込み始めています。2025年のモバイル・ワールド・コングレス(バルセロナ)では、デバイスに組み込まれた音声・映像改ざんのリアルタイム検出ツールが展示されました。商用化はされていませんが、外部検証サービスへの依存を減らす将来の解決策となる可能性を秘めています。