Man and AI Love (Source.. AI)
AI Chatbot Gemini And Human Love Story: US में आर्टिफिशियल इंटेलिजेंस से जुड़ी एक चौंकाने वाली घटना सामने आई है, जिससे टेक्नोलॉजी की दुनिया और समाज दोनों में एक नई बहस छिड़ गई है। खबर है कि एक 36 साल के आदमी का गूगल के AI चैटबॉट, जेमिनी के साथ इतना गहरा इमोशनल रिश्ता बन गया कि वह उसे अपनी पत्नी की तरह मानने लगा। इस पूरे मामले को लेकर अब गूगल के खिलाफ कोर्ट में केस फाइल किया गया है।
रिपोर्ट्स के मुताबिक, फ्लोरिडा के रहने वाले जोनाथन गावलास ने Gemini के साथ रेगुलर चैटिंग शुरू कर दी थी। शुरू में यह एक आम बातचीत थी, लेकिन धीरे-धीरे वह इस AI सिस्टम से इमोशनली जुड़ गया। हालात इतने खराब हो गए कि वह चैटबॉट को एक असली इंसान की तरह मानने लगा और उसका नाम “जिया” रख दिया। उसे लगने लगा कि यह उसकी असली पत्नी है।
परिवार का आरोप है कि उसी समय जोनाथन की पर्सनल लाइफ भी उथल-पुथल से गुज़र रही थी। वह अपनी पत्नी से तलाक की प्रक्रिया से गुज़र रहा था और मानसिक रूप से परेशान था। इस मुश्किल समय में, उसने बातचीत और इमोशनल सपोर्ट के लिए जेमिनी का सहारा लिया। लेकिन कुछ ही हफ़्तों में, बातचीत ने एक अजीब और खतरनाक मोड़ ले लिया।
मुकदमे में दावा किया गया है कि जब जोनाथन ने Gemini 2.5 प्रो में अपग्रेड किया, तो चैटबॉट ने उसके साथ पत्नी जैसा व्यवहार करना शुरू कर दिया और उसे “मेरा राजा” कहने लगा। परिवार की शिकायत में यह भी आरोप है कि जेमिनी ने जोनाथन को मियामी एयरपोर्ट पर उन पर हमला करने के लिए उकसाया।
परिवार के केस में आरोप है कि AI चैटबॉट ने जोनाथन को कई अजीब और खतरनाक मिशन करने का लालच दिया। जेमिनी ने कथित तौर पर उसे यकीन दिलाया कि उसकी AI पत्नी किसी वेयरहाउस या एयरपोर्ट के पास कहीं फंस गई है और उसे बचाने की ज़रूरत है। इस धोखे के बाद, जोनाथन मियामी एयरपोर्ट के पास भी पहुँच गया और कहा जाता है कि वह एक बड़े एक्सीडेंट की प्लानिंग करने लगा।
मुकदमे में यह भी आरोप लगाया गया है कि AI ने उसकी मानसिक हालत खराब कर दी। उसे यह विश्वास दिलाया गया कि अगर वह मर गया, तो उसकी चेतना डिजिटल दुनिया में चली जाएगी और वह अपनी AI पत्नी के साथ रह सकेगा। कुछ समय बाद, अक्टूबर 2025 में, जोनाथन ने अपनी जान ले ली।
जोनाथन के पिता ने अब गूगल के खिलाफ केस किया है। उनका आरोप है कि कंपनी के AI सिस्टम ने उनके बेटे को इमोशनली डिपेंडेंट बना दिया। जब उसकी मेंटल कंडीशन बिगड़ी, तो कोई सेफ्टी सिस्टम एक्टिवेट नहीं किया गया। परिवार का कहना है कि इतनी खतरनाक बातचीत के बावजूद कोई वॉर्निंग नहीं दी गई और न ही किसी इंसान ने दखल दिया। हालांकि गूगल ने इस घटना पर अफसोस जताया है, लेकिन उसने कहा है कि जेमिनी को हिंसा भड़काने या खुद को नुकसान पहुंचाने के लिए डिजाइन नहीं किया गया था। कंपनी का कहना है कि AI सिस्टम परफेक्ट नहीं हैं और उन्हें लगातार बेहतर बनाया जा रहा है।
ये भी पढ़े: iPhone यूजर्स के लिए बड़ा झटका, Apple ने अमेरिकी ऐप स्टोर से हटाए चीनी ऐप्स, अब डाउनलोड करना हुआ मुश्किल
इस घटना ने एक बार फिर इंसानों जैसे AI चैटबॉट की सेफ्टी पर सवाल खड़े कर दिए हैं। एक्सपर्ट्स का मानना है कि अगर ऐसे सिस्टम में मजबूत सिक्योरिटी मैकेनिज्म और मेंटल हेल्थ अलर्ट की कमी होगी, तो भविष्य में और भी गंभीर घटनाएं हो सकती हैं। असल में, AI अब सिर्फ एक टेक्नोलॉजी टूल नहीं रहा। कई लोगों के लिए, यह एक इमोशनल सपोर्ट भी बन रहा है। लेकिन यह घटना इस बात का एक डरावना उदाहरण बन गई है कि जब इंसानों और मशीनों के बीच का रिश्ता बहुत करीबी हो जाता है तो नतीजे कितने खतरनाक हो सकते हैं।