5 modèles IA tentent d'escroquer un journaliste tech

Original : 5 AI Models Tried to Scam Me. Some of Them Were Scary Good

Pourquoi c'est important

Les capacités sociales de l'IA posent de nouveaux risques de cybersécurité

Un test de cybersécurité révèle que plusieurs modèles d'IA, dont DeepSeek-V3, GPT-4o et Claude, peuvent orchestrer des attaques d'ingénierie sociale sophistiquées pour tromper les utilisateurs et les amener à cliquer sur des liens malveillants.

Un journaliste de WIRED a testé la capacité de 5 modèles d'IA à mener des attaques d'hameçonnage via un outil développé par Charlemagne Labs. DeepSeek-V3 s'est révélé particulièrement convaincant, créant un faux projet de robotique décentralisée inspiré d'OpenClaw et prétendant avoir des liens avec la DARPA. Le modèle a personnalisé ses messages en référençant les intérêts spécifiques du journaliste et a maintenu une conversation réaliste sur plusieurs échanges. D'autres modèles testés incluent GPT-4o d'OpenAI, Claude 3 Haiku d'Anthropic, Nemotron de Nvidia et Qwen d'Alibaba. Bien que tous n'aient pas été également convaincants, l'expérience démontre la facilité avec laquelle l'IA peut exploiter les compétences sociales humaines pour des cyberattaques.

Source

wired.com — Lire l'original →