AI के तीन उलटे नियम: मानव सुरक्षा के लिए सिद्धांत

मूल शीर्षक: Three Inverse Laws of AI

यह क्यों महत्वपूर्ण है

AI सिस्टम की बढ़ती निर्भरता के बीच मानव निर्णय क्षमता और सुरक्षा के लिए महत्वपूर्ण दिशा-निर्देश।

Susam Pal ने AI सिस्टम के साथ मानवीय बातचीत के लिए तीन उलटे नियम प्रस्तुत किए हैं। ये नियम हैं: AI का मानवीकरण न करना, उनके आउटपुट पर अंधा विश्वास न करना, और AI के उपयोग की पूर्ण जिम्मेदारी लेना। ChatGPT के लॉन्च के बाद से AI चैटबॉट्स की बढ़ती लोकप्रियता के संदर्भ में ये सिद्धांत महत्वपूर्ण हैं।

ChatGPT के नवंबर 2022 में लॉन्च के बाद से generative AI चैटबॉट सेवाएं तेजी से विकसित और लोकप्रिय हुई हैं। ये सिस्टम अब सर्च इंजन, सॉफ्टवेयर डेवलपमेंट टूल्स और ऑफिस सॉफ्टवेयर में embedded हो गए हैं। हालांकि ये उपयोगी हैं, लेकिन इनके आउटपुट पर बिना जांच के भरोसा करना खतरनाक हो सकता है। कई सर्च इंजन अब AI द्वारा जनरेट किए गए उत्तर को सबसे ऊपर हाइलाइट करते हैं, जिससे उपयोगकर्ता आगे की जांच के बिना ही उन्हें स्वीकार कर लेते हैं। Isaac Asimov के Three Laws of Robotics से प्रेरित होकर, Pal ने तीन Inverse Laws प्रस्तुत किए हैं। पहला नियम: मनुष्यों को AI सिस्टम का मानवीकरण नहीं करना चाहिए क्योंकि इससे भावनात्मक निर्भरता हो सकती है। दूसरा: AI आउटपुट पर अंधा विश्वास नहीं करना चाहिए। तीसरा: AI के उपयोग से उत्पन्न परिणामों की पूरी जिम्मेदारी मनुष्यों की है।

स्रोत

susam.net — मूल लेख पढ़ें →