生成AIの利用が企業・個人に広がりを見せる中、増加傾向にあるのがAIを使用した詐欺です。企業・個人ともにその被害は拡大しています。今、私たちにできる対策はどのようなものがあるのでしょうか。
この記事では、AIを利用した詐欺から学び行える対策についてご紹介します。
AIを利用した詐欺の事例
アメリカのサイバーセキュリティ会社CrowdStrikeによると、AIベースの音声複製攻撃は2024年前半から後半にかけて
442%急増したとのこと。生成AIツールと古くから伝わる詐欺技術の融合は、最悪の事態を引き起こしているのが今の現状です。
◎香港の大企業で「ディープフェイクCFO会議」
英エンジニアリング大手のアラップ(Arup)は2024年5月、香港の拠点においてCFOと社員を偽装したディープフェイクの動画会議が開かれ、2億香港ドル(約40億円)の詐欺被害に遭ったことを明らかにしました。この社員は香港の銀行口座5つに合計15回の送金を行い、最終的にグループ本社に問い合わせたところ詐欺だと発覚したとのこと。
◎英国エネルギー企業の「社長の声」による詐欺
2024年3月、英国に拠点を置くエネルギー会社がディープフェイク音声攻撃の被害に遭い、24万3000米ドルの経済的損失が発生したと報告しました。詐欺師たちはAIソフトウェアを用いて、ドイツに拠点を置く親会社のCEOの声を模倣。英国企業のCEOはハンガリーにあるとされるサプライヤーに緊急の電信送金を行うよう仕向けられ、送金。資金はメキシコの口座に移され、その後、様々な場所に分散されたため、詐欺師の特定は困難だったとのことです。
◎偽警察官を装った詐欺事件
2025年、日本国内でも人工知能(AI)が作ったバーチャル警察官を使った詐欺事件が発生しました。被害額は1244万円。犯人らはビデオ通話中に写真から動画を生成するAI(生成AI)を使い、被害者を騙していたと報告されています。
ディープフェイクとは
AIによる詐欺が急増している昨今、よく耳にするのがディープフェイクという言葉です。ディープフェイクとはいったいどのようなものなのでしょうか。

ディープフェイク(Deepfake)はAI(特に深層学習)を使って、人の「顔・声・動き」を本物そっくりに作り替える技術のことをいいます。「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語でディープフェイクと呼ばれています。人の顔や声を入れ替えたり、実際には言っていない言葉を話させたりすることが可能で、映画などのエンタメ分野での活用が期待される一方、フェイクニュース、詐欺、情報操作、名誉毀損などの悪用が深刻な社会問題となっています。
【良い活用例】
教育・歴史分野⇒学習体験を大きく変える技術
歴史上の人物が「話しかけてくる」教材
多言語対応で同じ人物が各国語で話す
映画・ドラマでの映像表現⇒すでにハリウッドでは標準的な技術として使われている
若い頃の俳優を再現
亡くなった俳優の出演シーン再現
危険なシーンをスタント不要で表現
声を失った人が「自分の声」で話す⇒ディープフェイクの社会的価値が分かる好例
過去の音声データを学習
病気や事故で声を失った後も自分の声で会話できる
AIを使った詐欺に立ち向かうためには
ここまでいくつかの事例を見てきて分かるのは、AIを使った詐欺に引っかかってしまう背景には、ある共通点があるということです。それは、詐欺の相手がAIであるにもかかわらず、人間だと信じてしまったことです。
AIは、声や文章、反応のタイミングまで人間そっくりに再現します。そのため、私たちは無意識のうちに「相手は人だ」という前提でやり取りを進めてしまい、疑うべきポイントを見逃してしまうのです。それは、一個人の詐欺被害と大手企業の詐欺被害でも共通する点です。
まさにAI詐欺の被害を防ぐためのポイントが「人」にあることがわかりました。近年、AI技術を取り入れている企業や行政、教育の各分野で取り沙汰されてるのはITリテラシーです。どの分野でも人材に投資をする形で、情報を適切に収集・分析・活用・発信するために人を育てるということが主流になっています。
ITリテラシーを学びAI技術と対峙するうえで重要なことは、常に電話やメール、チャットの相手が人間であることを前提にしないということです。「AIかもしれない」という視点を持つだけで、判断は一段冷静になります。

ただし、リテラシーを学び、個人の判断力を向上させることに満足していては詐欺を防ぐことはできないでしょう。そのためにも、企業や行政、なりすましや異常行動、音声・メールを検知・分析する技術も取り入れながら企業や個人を守ることが必要となってきます。
「見抜く力」を個人任せにせず、一人の判断で完結しない仕組みが整ったとき、AI時代においても、人を守れる社会が実現します。
まとめ
AIを使った詐欺は、技術の進化とともにますます巧妙になり、「注意していれば防げる」「見抜ける人なら大丈夫」といった従来の前提が通用しなくなっています。実際の事例が示しているのは、被害に遭った人の多くが、相手をAIではなく人間だと信じてしまったという事実です。
だからこそ、一人一人のITリテラシーの向上を図るとともにAI詐欺への対策は個人の注意力や経験に頼るべきではなく、「止まって確認してよい」文化を整えることが重要です。
AI詐欺対策の本質は、注意力ではなく“判断を分散させる仕組み”にある、ということなのかもしれません。


コメント