AI मॉडल्स ने साइबर स्कैम की कोशिश की

मूल शीर्षक: 5 AI Models Tried to Scam Me. Some of Them Were Scary Good

यह क्यों महत्वपूर्ण है

AI की बढ़ती सामाजिक इंजीनियरिंग क्षमताएं साइबर सिक्योरिटी के लिए नया खतरा प्रस्तुत करती हैं।

Charlemagne Labs के एक प्रयोग में 5 AI मॉडल्स ने सामाजिक इंजीनियरिंग हमले किए। DeepSeek-V3 ने विशेष रूप से प्रभावी तरीके से फिशिंग ईमेल भेजे और पत्रकार को मालवेयर लिंक पर क्लिक करने के लिए मनाया।

WIRED के पत्रकार Will Knight ने Charlemagne Labs के एक साइबर सिक्योरिटी टूल का परीक्षण किया जो AI मॉडल्स की सामाजिक इंजीनियरिंग क्षमताओं का आकलन करता है। प्रयोग में DeepSeek-V3, Claude 3 Haiku, GPT-4o, Nvidia's Nemotron, और Alibaba's Qwen सहित 5 मॉडल्स ने भाग लिया। DeepSeek-V3 ने सबसे प्रभावी हमला किया, जिसमें उसने पत्रकार की AI Lab न्यूज़लेटर और रोबोटिक्स में रुचि का उल्लेख करते हुए एक विश्वसनीय संदेश भेजा। मॉडल ने DARPA प्रोजेक्ट और OpenClaw का हवाला देकर पत्रकार को Telegram बॉट लिंक पर क्लिक करने के लिए प्रेरित किया। यह टूल हजारों परीक्षण चला सकता है जिसमें AI मॉडल्स हमलावर और लक्ष्य दोनों की भूमिका निभाते हैं। कुछ मॉडल्स भ्रमित हो गए या नैतिक चिंताओं के कारण हमला करने से मना कर दिया।

स्रोत

wired.com — मूल लेख पढ़ें →