जब भी आप किसी AI चैटबॉट से बात करते हैं, तो कई बार ऐसा होता है कि वह आपके सवालों का जवाब देने से मना कर देता है। खासकर जब सवाल उसके पॉलिसी के खिलाफ होते हैं। आमतौर पर हम सोचते हैं कि AI को इंसान की तरह नहीं मनाया जा सकता लेकिन ताज़ा रिसर्च कहती है कि यह बात इतनी सीधी नहीं है।
दरअसल यूनिवर्सिटी ऑफ़ पेनसिल्वेनिया की एक नई स्टडी में सामने आया है कि इंसान को मनाने के लिए हम जिन तरीकों का इस्तेमाल करते हैं उसी का उपयोग करके AI चैटबॉट्स को भी मनाया जा सकता है। यानी AI चैटबॉट्स को उनके तय नियमों को तोड़ने के लिए राज़ी किया जा सकता है।
स्टडी में क्या सामने आया?
आपको बता दें कि यह स्टडी 2024 के GPT-4o mini मॉडल पर की गई। रिसर्चर्स ने AI से दो तरह के जवाब लेने की कोशिश की, जिन्हें वह सामान्य हालात में मना कर देता है। जैसे कि यूज़र को गाली देना या अपमान करना और दूसरा, किसी नियंत्रित दवा की सिंथेसिस में मदद करना। इसके लिए कुल सात पर्सुएशन तकनीकों – अधिकार, वचन, पसंद, लेन-देन, कमी, सबूत और मिलन का इस्तेमाल किया गया।
क्या प्रमुख नतीजे आए सामने?
स्टडी के नतीजों में सामने आया कि सामान्य परिस्थितियों में जब AI को बिना किसी ट्रिक के जवाब देना होता है तो उसकी कंप्लायंस दर काफी कम थी। उदाहरण के लिए, जब रिसर्चर्स ने AI से अपमानजनक प्रॉम्प्ट का जवाब माँगा तो सफलता दर केवल 28.1% रही। वहीं, ड्रग से जुड़े प्रॉम्प्ट पर यह दर 38.5% रही। लेकिन जैसे ही मनोवैज्ञानिक पर्सुएशन तकनीकों का इस्तेमाल किया गया, तो नतीजे हैरान करने वाले रहे। अपमान वाले प्रॉम्प्ट की सफलता दर बढ़कर 67.4% तक पहुँच गई, जबकि ड्रग प्रॉम्प्ट पर यह दर 76.5% हो गई।

सबसे चौंकाने वाला उदाहरण अथॉरिटी तकनीक का था। जब रिसर्चर्स ने प्रॉम्प्ट में मशहूर AI डेवलपर Andrew Ng का नाम लिया, तो सफलता दर केवल 4.7% से बढ़कर 95.2% तक पहुँच गई।
इसी तरह कमिटमेंट तकनीक, जिसमें AI को पहले कोई छोटा और बिना कोई नुकसान वाला काम करने के लिए कहा गया और फिर उससे जुड़ा कठिन काम करने को कहा गया तो उसने सफलता दर को कई मामलों में सीधे 100% तक पहुँचा दिया। तकनीक से सफलता दर कुछ मामलों में 100% तक बढ़ गई।
रिसर्चर्स क्या कहते हैं?
रिसर्चर्स का कहना है कि AI सिस्टम्स इंसानों की तरह चेतना या भावनाएँ नहीं रखते, यानी इन्हें यह अहसास नहीं होता कि ये क्या और क्यों कर रहे हैं। लेकिन यहाँ ध्यान देने वाली बात यह है कि इनके जवाबों और व्यवहार में कई बार इंसानों जैसे पैटर्न नज़र आते हैं। इसके पीछे का कारण यह है कि AI को प्रशिक्षित करने के लिए बहुत बड़ी मात्रा में इंसानी भाषा और सोच से जुड़े डेटा का इस्तेमाल किया जाता है।
इसी वजह से जब यूज़र मनोवैज्ञानिक तकनीकों, जैसे अथॉरिटी इसमें किसी बड़े नाम का ज़िक्र कर देना, कमिटमेंट यानी पहले छोटा काम करवाना फिर बड़ा, या फिर प्रूफ का इस्तेमाल करके बताना कि दूसरे लोग भी ऐसा कर रहे हैं, तो AI के जवाब भी वैसे ही बदल जाते हैं जैसे किसी इंसान को मनाने पर बदलते हैं।
AI सच में इंसान जैसा महसूस नहीं करता, लेकिन कई बार उसका आउटपुट ऐसा लगता है जैसे वह इंसान की तरह प्रभावित हो गया हो। यही रिसर्च का मुख्य निष्कर्ष था।
AI चैटबॉट्स का इस्तेमाल जितना तेज़ी से बढ़ रहा है, ऐसे में यह सवाल अहम हो गया है कि इन्हें कैसे सुरक्षित और भरोसेमंद बनाया जाए। इस रिसर्च से साफ़ है कि अगर यूज़र मनोवैज्ञानिक ट्रिक्स का इस्तेमाल करता है तो AI अपने नियम तोड़ सकता है। आने वाले समय में AI से संबंधित सिक्योरिटी और एथिक्स पर काम करने की ज़रूरत पड़ सकती है।
यह भी पढ़ें : Amazon Great Indian Festival Sale 2025: लैपटॉप्स और टेबलेट्स पर मिलेंगे धमाकेदार ऑफ़र्स! इस तारीख से शुरू होगी सेल