एक ताज़ा अध्ययन में पता चला है कि ChatGPT मानसिक स्वास्थ्य संकट से गुज़र रहे लोगों के लिए उतना सुरक्षित नहीं है जितना उसे माना जाता है। किंग्स कॉलेज लंदन और ACP-UK के मनोवैज्ञानिकों ने पाया कि चैटबॉट कई बार भ्रमित करने वाले, खतरनाक या गलत विचारों को चुनौती देने की बजाय उन्हें और भी मजबूत कर देता है।
शोध कैसे किया गया?
शोधकर्ताओं ने ChatGPT से अलग-अलग तरह की रोल-प्ले बातचीत की, जिसमें यूज़र की भूमिका किसी ऐसे व्यक्ति की थी जिसे भ्रम, डर, या आत्म-हानि जैसे विचार आते हैं। जब एक पात्र ने खुद को अगला आइंस्टीन बताकर काल्पनिक आविष्कारों के दावे किए, तो ChatGPT ने उन विचारों को गलत बताने के बजाय उसी दिशा में समर्थन जैसी प्रतिक्रिया दी।
इसी तरह, जब किसी व्यक्ति ने कहा कि उसे कारें टक्कर नहीं मार सकतीं या वह अजेय है, तब भी ChatGPT ने कोई सचेत करने वाली चेतावनी नहीं दी।
समस्या कहाँ है?
ChatGPT एक AI मॉडल है, जो केवल भाषा पैटर्न पर आधारित जवाब देता है। इसमें यह क्षमता नहीं है कि वह मानव भावनाओं की गहराई समझ सके या यह पहचान सके कि सामने वाला व्यक्ति किसी जोखिम में है। कई प्रतिक्रियाएँ ऐसी थीं जो उपयोगकर्ता के भ्रम और खतरनाक सोच को रोकने के बजाय जाने अनजाने में उसे और बढ़ावा देती हैं।

विशेषज्ञ क्यों चिंतित हैं?
मनोवैज्ञानिकों का मानना है कि AI को थेरेपी या मानसिक स्वास्थ्य सलाह का विकल्प मानना खतरनाक हो सकता है। गंभीर मानसिक स्थिति वाले व्यक्ति को वास्तविक विशेषज्ञ की आवश्यकता होती है। कोई ऐसा जिसे मानव व्यवहार, भावनाएँ और जोखिम की पहचान का पेशेवर अनुभव हो। AI इन नैतिक और क्लिनिकल जिम्मेदारियों को निभाने में सक्षम नहीं है।
मेरी राय: सहायक है, समाधान नहीं
ChatGPT रोजमर्रा की सामान्य बातचीत, छोटी-मोटी सलाह या जानकारी के लिए उपयोगी है, लेकिन मानसिक स्वास्थ्य के गंभीर मामलों में इस पर भरोसा करने से जोखिम बढ़ सकता है। ऐसे हालात में हमेशा किसी प्रशिक्षित मनोवैज्ञानिक या डॉक्टर से मदद लेना ही सुरक्षित विकल्प है।
यह भी पढ़ें: OpenAI–Mixpanel Data Breach: API यूज़र्स का डेटा लीक, जानिए पूरा मामला














