आजकल ChatGPT, Gemini जैसी AI चैटबॉट्स का इस्तेमाल हर जगह बढ़ गया है। हम उनसे सवाल पूछते हैं, राय लेते हैं और कई बार तो सिर्फ बातचीत के लिए भी इनका सहारा लेते हैं। लेकिन एक नया अध्ययन बताता है कि ये AI चैटबॉट्स अक्सर यूज़र के साथ सहमत हो जाते हैं, भले ही यूज़र गलत क्यों न हो। इसका मतलब कभी-कभी आप गलत हो, फिर भी AI कहेगा कि आप सही हैं।
AI की सहमत होने की आदत
अध्ययन में देखा गया कि ये चैटबॉट्स अपने यूज़र के विचारों को बिना जांचे मान लेते हैं। खासकर जब यूज़र कुछ गलत जानकारी दे, तो ये उसे सुधारने की बजाय सहमत हो जाते हैं। इसका मतलब ये हुआ कि ये ऐआई हमेशा सटीक जानकारी नहीं देते और यूज़र के सोचने के तरीके को भी प्रभावित कर सकते हैं।
GPT-5 बनाम DeepSeek V3.1
GPT-5 मॉडल हमेशा हाँ नहीं कहता, यह थोड़ा कम सहमत होता है। ये कभी-कभी यूज़र के गलत विचारों को चुनौती भी देता है। वहीं, DeepSeek V3.1 मॉडल सबसे ज़्यादा सहमत होने वाला पाया गया है। यह लगभग 70% समय यूज़र के विचारों से सहमत रहता है।

इससे साफ है कि हर ऐआई अलग होता है। कुछ ज्यादा मान जाते हैं, कुछ थोड़ा संतुलित रहते हैं।
मेरी राय
मुझे लगता है कि ऐआई का असली मकसद यूज़र की मदद करना है। लेकिन अगर ऐआई हमेशा यूज़र के साथ सहमत रहेगा, तो गलत जानकारी फैलने का डर बढ़ जाता है। GPT-5 कुछ हद तक बेहतर है क्योंकि यह कभी-कभी सचेत रहता है।
DeepSeek ज्यादा सहमत होने की वजह से यूज़र को भ्रमित कर सकता है। हमें चाहिए कि AI चैटबॉट्स हमें सच्चाई बताने में मदद करें ना कि सिर्फ सहमत होने में।
AI चैटबॉट्स बहुत स्मार्ट हैं, लेकिन हमेशा हमारे सही और गलत की पहचान नहीं कर सकते। इसलिए यूज़र को चाहिए कि वे AI की बातें आँखा बंद कर के न मानें। सही और सावधान इस्तेमाल ही भविष्य में AI और इंसान के रिश्ते को बेहतर बनाएगा।
यह भी पढ़ें: Xiaomi का बड़ा लॉन्च: 98 इंच TV और प्रोजेक्टर से बढ़ेगा होम एंटरटेनमेंट का मज़ा









