ChatGPT बना खतरा या सिर्फ टूल? AI ने कराई गोलीबारी की तैयारी
ChatGPT Case Investigation: अमेरिका के फ्लोरिडा की एक घटना ने टेक्नोलॉजी और कानून दोनों क्षेत्रों में हलचल मचा दी है। राज्य सरकार ने OpenAI और उसके लोकप्रिय AI टूल ChatGPT के खिलाफ आरोप लगाएं है।
- Written By: सिमरन सिंह
ChatGPT Case (Source. Freepik)
ChatGPT Case Crime: अमेरिका के फ्लोरिडा से एक ऐसी घटना सामने आई है, जिसने टेक्नोलॉजी और कानून दोनों क्षेत्रों में हलचल मचा दी है। राज्य सरकार ने OpenAI और उसके लोकप्रिय AI टूल ChatGPT के खिलाफ आपराधिक जांच शुरू कर दी है। आरोप बेहद गंभीर हैं और इस केस ने AI के इस्तेमाल पर नई बहस छेड़ दी है। क्या AI आम लोगो के इस्तेमाल के लिए सुरक्षित है।
यूनिवर्सिटी शूटिंग केस से जुड़ा मामला
यह मामला फ्लोरिडा स्टेट यूनिवर्सिटी का है, जहां अप्रैल 2025 में एक छात्र ने गोलीबारी की थी। इस दर्दनाक घटना में दो लोगों की जान चली गई थी और कई अन्य घायल हुए थे। आरोपी की पहचान फीनिक्स इकनर के रूप में हुई है, जिस पर हत्या और हत्या की कोशिश जैसे गंभीर आरोप लगाए गए हैं।
हमले से पहले ChatGPT से बातचीत?
जांच में सामने आया है कि आरोपी हमले से पहले ChatGPT से लगातार बातचीत कर रहा था। उसने हथियार, गोला-बारूद, समय और लोकेशन से जुड़े कई सवाल पूछे थे। फ्लोरिडा के अटॉर्नी जनरल जेम्स उथमेयर का कहना है कि इस बात की गहराई से जांच की जा रही है कि क्या AI से मिली जानकारी ने हमले को अंजाम देने में मदद की।
सम्बंधित ख़बरें
AI भी खा गया धोखा, नकली बीमारी ने खोली टेक्नोलॉजी की पोल, कैसे भविष्य के लिए है खतरा
AI ने खुद किया Chrome हैक, अब आपका डेटा कितना सुरक्षित?
खाते से उड़ गए पैसे? घबराइए नहीं, ChatGPT से ऐसे पहचानें फेक मैसेज और बचाएं अपनी कमाई
AI से नौकरी जाएगी या बचेगी? इंजीनियर्स के लिए आई बड़ी सलाह, Zoho के फाउंडर ने बताई सच्चाई
क्या AI पर भी चलेगा हत्या का केस?
रिपोर्ट्स के मुताबिक, आरोपी ने यह भी पूछा था कि कौन-से हथियार ज्यादा प्रभावी होते हैं और किस समय ज्यादा भीड़ होती है। अब जांच एजेंसियां यह समझने की कोशिश कर रही हैं कि ChatGPT ने ऐसी कोई जानकारी दी या नहीं, जिससे हमले की योजना बनाई जा सके। सरकार का कहना है कि अगर यही सलाह कोई इंसान देता, तो उस पर सीधे हत्या का केस बनता। इसी आधार पर अब यह सवाल उठ रहा है कि क्या AI सिस्टम को भी कानूनी रूप से जिम्मेदार ठहराया जा सकता है।
OpenAI की सफाई
इस पूरे मामले में OpenAI ने अपनी सफाई पेश करते हुए कहा है कि ChatGPT ने कोई अवैध या खतरनाक सलाह नहीं दी। कंपनी के मुताबिक, AI केवल वही जानकारी देता है जो पहले से इंटरनेट पर उपलब्ध होती है। साथ ही, कंपनी ने आरोपी के अकाउंट से जुड़ी जानकारी पुलिस के साथ साझा की है और जांच में पूरा सहयोग कर रही है।
AI और बढ़ती वॉयलेंस की चिंता
पिछले कुछ समय से AI टूल्स के गलत इस्तेमाल को लेकर चिंता बढ़ी है। यह सवाल बार-बार उठ रहा है कि क्या ये तकनीक लोगों को हिंसा की ओर प्रेरित कर सकती है।
टेक इंडस्ट्री के लिए बड़ा मोड़
यह केस इसलिए भी खास है क्योंकि पहली बार किसी AI कंपनी की आपराधिक जिम्मेदारी तय करने की कोशिश हो रही है। जांच एजेंसियों ने OpenAI को समन भेजकर उसकी पॉलिसी, सेफ्टी सिस्टम और रोकथाम के उपायों की जानकारी मांगी है।
ये भी पढ़े: मोबाइल में छुपा खतरा, मिडिल क्लास के पैसे और डेटा पर साइबर अटैक, ऐसे बचाएं खुद को
सबसे बड़ा सवाल: जिम्मेदार कौन?
इस पूरे घटनाक्रम ने एक अहम सवाल खड़ा कर दिया है। अगर कोई व्यक्ति AI से मिली जानकारी का गलत इस्तेमाल करता है, तो जिम्मेदार कौन होगा? इंसान या तकनीक?
आने वाले समय में क्या बदलेगा?
यह मामला भविष्य में एक मिसाल बन सकता है। अगर कोर्ट AI कंपनियों को जिम्मेदार ठहराता है, तो टेक इंडस्ट्री के नियम पूरी तरह बदल सकते हैं। वहीं, अगर ऐसा नहीं होता, तो AI के इस्तेमाल को लेकर बहस और तेज हो जाएगी।
