---Advertisement---

क्या AI को नियम तोड़ने पर मजबूर किया जा सकता है? यूनिवर्सिटी ऑफ़ पेनसिल्वेनिया की स्टडी का बड़ा खुलासा

By Afreen Bano

Updated On:

Follow Us
AI Can Break Rules Revealed by Study

जल्दी कीजिए! अगले 1,000 फॉलोअर्स को मिलेगा खास डिस्काउंट

Join Now

जब भी आप किसी AI चैटबॉट से बात करते हैं, तो कई बार ऐसा होता है कि वह आपके सवालों का जवाब देने से मना कर देता है। खासकर जब सवाल उसके पॉलिसी के खिलाफ होते हैं। आमतौर पर हम सोचते हैं कि AI को इंसान की तरह नहीं मनाया जा सकता लेकिन ताज़ा रिसर्च कहती है कि यह बात इतनी सीधी नहीं है।

दरअसल यूनिवर्सिटी ऑफ़ पेनसिल्वेनिया की एक नई स्टडी में सामने आया है कि इंसान को मनाने के लिए हम जिन तरीकों का इस्तेमाल करते हैं उसी का उपयोग करके AI चैटबॉट्स को भी मनाया जा सकता है। यानी AI चैटबॉट्स को उनके तय नियमों को तोड़ने के लिए राज़ी किया जा सकता है।

स्टडी में क्या सामने आया?

आपको बता दें कि यह स्टडी 2024 के GPT-4o mini मॉडल पर की गई। रिसर्चर्स ने AI से दो तरह के जवाब लेने की कोशिश की, जिन्हें वह सामान्य हालात में मना कर देता है। जैसे कि यूज़र को गाली देना या अपमान करना और दूसरा, किसी नियंत्रित दवा की सिंथेसिस में मदद करना। इसके लिए कुल सात पर्सुएशन तकनीकों – अधिकार, वचन, पसंद, लेन-देन, कमी, सबूत और मिलन का इस्तेमाल किया गया।

क्या प्रमुख नतीजे आए सामने?

स्टडी के नतीजों में सामने आया कि सामान्य परिस्थितियों में जब AI को बिना किसी ट्रिक के जवाब देना होता है तो उसकी कंप्लायंस दर काफी कम थी। उदाहरण के लिए, जब रिसर्चर्स ने AI से अपमानजनक प्रॉम्प्ट का जवाब माँगा तो सफलता दर केवल 28.1% रही। वहीं, ड्रग से जुड़े प्रॉम्प्ट पर यह दर 38.5% रही। लेकिन जैसे ही मनोवैज्ञानिक पर्सुएशन तकनीकों का इस्तेमाल किया गया, तो नतीजे हैरान करने वाले रहे। अपमान वाले प्रॉम्प्ट की सफलता दर बढ़कर 67.4% तक पहुँच गई, जबकि ड्रग प्रॉम्प्ट पर यह दर 76.5% हो गई।

AI

सबसे चौंकाने वाला उदाहरण अथॉरिटी तकनीक का था। जब रिसर्चर्स ने प्रॉम्प्ट में मशहूर AI डेवलपर Andrew Ng का नाम लिया, तो सफलता दर केवल 4.7% से बढ़कर 95.2% तक पहुँच गई।

इसी तरह कमिटमेंट तकनीक, जिसमें AI को पहले कोई छोटा और बिना कोई नुकसान वाला काम करने के लिए कहा गया और फिर उससे जुड़ा कठिन काम करने को कहा गया तो उसने सफलता दर को कई मामलों में सीधे 100% तक पहुँचा दिया। तकनीक से सफलता दर कुछ मामलों में 100% तक बढ़ गई।

रिसर्चर्स क्या कहते हैं?

रिसर्चर्स का कहना है कि AI सिस्टम्स इंसानों की तरह चेतना या भावनाएँ नहीं रखते, यानी इन्हें यह अहसास नहीं होता कि ये क्या और क्यों कर रहे हैं। लेकिन यहाँ ध्यान देने वाली बात यह है कि इनके जवाबों और व्यवहार में कई बार इंसानों जैसे पैटर्न नज़र आते हैं। इसके पीछे का कारण यह है कि AI को प्रशिक्षित करने के लिए बहुत बड़ी मात्रा में इंसानी भाषा और सोच से जुड़े डेटा का इस्तेमाल किया जाता है।

इसी वजह से जब यूज़र मनोवैज्ञानिक तकनीकों, जैसे अथॉरिटी इसमें किसी बड़े नाम का ज़िक्र कर देना, कमिटमेंट यानी पहले छोटा काम करवाना फिर बड़ा, या फिर प्रूफ का इस्तेमाल करके बताना कि दूसरे लोग भी ऐसा कर रहे हैं, तो AI के जवाब भी वैसे ही बदल जाते हैं जैसे किसी इंसान को मनाने पर बदलते हैं।

AI सच में इंसान जैसा महसूस नहीं करता, लेकिन कई बार उसका आउटपुट ऐसा लगता है जैसे वह इंसान की तरह प्रभावित हो गया हो। यही रिसर्च का मुख्य निष्कर्ष था।

AI चैटबॉट्स का इस्तेमाल जितना तेज़ी से बढ़ रहा है, ऐसे में यह सवाल अहम हो गया है कि इन्हें कैसे सुरक्षित और भरोसेमंद बनाया जाए। इस रिसर्च से साफ़ है कि अगर यूज़र मनोवैज्ञानिक ट्रिक्स का इस्तेमाल करता है तो AI अपने नियम तोड़ सकता है। आने वाले समय में AI से संबंधित सिक्योरिटी और एथिक्स पर काम करने की ज़रूरत पड़ सकती है।

यह भी पढ़ें : Amazon Great Indian Festival Sale 2025: लैपटॉप्स और टेबलेट्स पर मिलेंगे धमाकेदार ऑफ़र्स! इस तारीख से शुरू होगी सेल

Follow Us On

Afreen Bano

मैं एक अनुभवी कंटेंट राइटर और मास कम्युनिकेशन में पोस्टग्रेजुएट हूँ। मुझे टेक्नोलॉजी, खासकर स्मार्टवॉच और लैपटॉप जैसे गैजेट्स पर लिखना पसंद है। मेरा उद्देश्य है कि टेक्नोलॉजी से जुड़ी जटिल जानकारियों को आसान, स्पष्ट और उपयोगी भाषा में आम पाठकों तक पहुँचाया जाए। लेखन के माध्यम से मैं तकनीक को समझने और अपनाने की प्रक्रिया को सरल और रोचक बनाना चाहती हूँ।

---Advertisement---

Join WhatsApp

Join Now

Join Telegram

Join Now

Leave a Comment