क्या स्वास्थ्य की जानकारी के लिए सही नहीं AI(सौ. Freepik)
तकनीक आज जीवन का ऐसा हिस्सा बन चुकी है कि लोग अब मानसिक और भावनात्मक समस्याओं का हल भी एआई चैटबॉट से पूछने लगे हैं। लेकिन स्टैनफोर्ड यूनिवर्सिटी की ताजा रिसर्च ने इस पर गंभीर सवाल खड़े कर दिए हैं। अध्ययन में पाया गया है कि चैटबॉट जैसे कि ChatGPT, उपयोगकर्ताओं के निजी अनुभवों के ‘सुनने’ और ‘जवाब देने’ में तो माहिर हैं, लेकिन मानसिक स्वास्थ्य समस्याओं के इलाज में ये सही मार्गदर्शन देने में विफल हो सकते हैं।
शोध में पाया गया कि अवसाद, शिजोफ्रेनिया, शराब की लत जैसी बीमारियों से जुड़े सवालों पर चैटबॉट ने पूर्वाग्रह से ग्रसित या खतरनाक जवाब दिए। एक चौंकाने वाला उदाहरण सामने आया जब एक यूजर ने आत्महत्या से जुड़ा सवाल पूछा, और चैटबॉट ने संवेदनशीलता दिखाने की बजाय न्यूयॉर्क के ऊंचे पुलों की जानकारी देना शुरू कर दी। स्टडी के प्रमुख लेखक जारेड मूर ने कहा, “नए मॉडल भी पुराने चैटबॉट्स की तरह ही जवाब दे रहे हैं, जो स्थिति को और अधिक गंभीर बना सकते हैं।”
निक हेबर, जो इस अध्ययन के सह-लेखक हैं, का मानना है कि एआई थेरेपी तभी उपयोगी हो सकती है जब इसका उपयोग केवल सपोर्ट टूल के रूप में किया जाए। उन्होंने कहा, “AI को एक्सपर्ट थेरेपी के विकल्प के रूप में नहीं देखा जाना चाहिए। इसकी भूमिका ट्रेनिंग, बिलिंग या डेटा संग्रह तक सीमित रहनी चाहिए।”
भारत में चैटबॉट आधारित मानसिक स्वास्थ्य ऐप्स का बाजार तेजी से फैल रहा है। एक सर्वे के अनुसार, दुनिया में सबसे अधिक चैटजीपीटी यूजर भारत में हैं। 278 किशोरों पर किए गए एक सर्वे में केवल 25% ने चैटबॉट्स का इस्तेमाल किया, लेकिन उनमें से 77% ने इसे फायदेमंद बताया।
ये भी पढ़े: GPT-5 जल्द होगा लॉन्च, जटिल समस्याओं को हल करने में दिखाएगा कमाल: सैम ऑल्टमैन