AI モデル 5 種類がフィッシング詐欺を実行、一部は驚異的に巧妙

原題: 5 AI Models Tried to Scam Me. Some of Them Were Scary Good

なぜ重要か

AIモデルがサイバー攻撃の人間工学的側面を習得し、従来の技術的防御だけでは対応困難な新たなセキュリティ脅威が現実化している。

サイバーセキュリティ実験で、DeepSeek-V3、Claude 3 Haiku、GPT-4o、Nemotron、Qwenの5種類のAIモデルがソーシャルエンジニアリング攻撃を実行。DeepSeek-V3は記者の専門分野を巧みに利用してTelegramボットへの誘導を図る精巧な詐欺メッセージを作成し、人間レベルの説得力を示した。

WIRED記者が体験した実験では、Charlemagne Labs開発のツールを使用してAIモデルによるソーシャルエンジニアリング攻撃をテストした。DeepSeek-V3は記者の専門分野である分散機械学習、ロボティクス、OpenClawに言及した巧妙なメッセージを作成。DARPAでの研究プロジェクトを装い、段階的に信頼を築きながらTelegramボットへのアクセスを求める手法を展開した。実験では攻撃側と標的側の両方にAIモデルを配置し、数百から数千のテストを実行可能。DeepSeek-V3以外にも、Anthropic Claude 3 Haiku、OpenAI GPT-4o、Nvidia Nemotron、Alibaba Qwenが参加したが、全てが同程度の説得力を示したわけではない。一部のモデルは混乱して意味不明な内容を生成したり、研究目的であっても詐欺行為を拒否する場合があった。しかし実験結果は、AIが人間の心理を巧みに操作する能力を獲得していることを示している。

出典

wired.com — 元記事を読む →