進化するAI、巧妙化するディープフェイク

先月30日、アメリカのOpenAI社が新しい動画生成AI「Sora 2」を発表しました。前モデルでは映像のみの生成が可能でしたが、今回のモデルでは映像と同時に音声も生成できるようになり、さらに人間の身体の動きも物理法則を踏まえた自然なものとなりました。かつては専門的な知識と高価な機材が必要だった映像制作でしたが、今や誰でも手軽に高品質な映像を作れるようになりつつあります。

こうしたテクノロジーの進化はクリエイティブな表現の可能性を大きく広げる一方で、深刻な社会問題も引き起こしています。それが「ディープフェイク」と呼ばれる手法です。ディープフェイクとは、AIを使って実在する人物の顔や声を精巧に合成し、あたかも本人が実際に発言したり、行動したりしているかのように見せかける技術を指します。その精度は年々向上しており、生成された映像や音声は、もはや私たちの目で本物と見分けることが極めて困難なレベルに達しています。

 

実際に、ディープフェイクの悪用による被害が世界各地で報告されています。今年6月の韓国大統領選挙では、SNS上に多数の偽画像や映像が出回り、中央選挙管理委員会が1万件以上の削除要請を行いました。さらにディープフェイクは経済活動にも大きな打撃を与えています。イギリスの大手エンジニアリング企業では、社員がCFOを名乗る人物からの指示でテレビ会議に参加しました。会議には複数の同僚も参加していたため、社員は疑うことなく指定された口座に2億香港ドル(日本円で約40億円)を送金しました。しかし、その会議にいた同僚の映像はすべてディープフェイクによる偽物であり、送金先も詐欺グループの管理する口座でした。

このように、AIを用いた映像生成技術の急速な進歩はディープフェイクの精度を飛躍的に高め、私たちが日常的に触れる情報の真偽を見極めることを一層難しくしています。私たちは長い間、「映像は真実を映すもの」という共通認識を持ってきました。しかし今、その常識が覆され、映像で目にしたものが必ずしも現実を反映しているとは限らない時代に突入したと言えるでしょう。

 

では、私たちはこうしたディープフェイクの脅威にどう向き合えばよいのでしょうか。対策として、偽映像を検出するプログラムの開発やプラットフォーム側の規制強化、さらには法的整備も進められています。ですが、これらの手段だけで偽情報を完全に排除することは難しいのが現実です。だからこそ重要なのは、私たち一人ひとりの情報リテラシー、すなわち情報を正しく見定め、活用する能力を高めることです。例えば、映像の不自然さに注目することが挙げられます。まばたきが極端に少ない、口の動きと音声がわずかにずれているといった特徴は、偽映像を見抜く手がかりとなります。また、その映像がどの媒体から発信されているのか、信頼できる情報源なのかを確認する習慣を持つことも欠かせません。

AIの進化は、私たちの生活や仕事を豊かにする大きな可能性を秘めている一方で、これまで築き上げてきた情報の信頼性を揺るがしています。目にする情報を無条件に受け入れるのではなく、批判的な視点で情報を受け止める力を社会全体で育むことが、これからの時代には必要不可欠となってくるでしょう。

 

 

参考記事:
読売新聞オンライン「生成AIの動画を投稿可能、SNSアプリ提供開始…オープンAIがアメリカとカナダで
日経電子版「OpenAI、SNSアプリ『Sora』提供 AI製TikTok風の短時間動画

参考資料:
朝日新聞デジタル「ディープフェイク拡大、削除要請1万件超 韓国大統領選
日経電子版「会議相手はフェイク動画、40億円被害が示す詐欺AIの進化
OpenAI「Sora 2 が公開
三菱総合研究所「生成AIコラム | 第3部 生成AIのリスク・懸念と対策 第6回:自律化するAIと情報操作の脅威 ~『withフェイク時代』の処方箋~| 三菱総研のDX デジタルトランスフォーメーション
TODAY「OpenAI’s Sora 2 Prompts Concern Over Deepfake Videos