AI ने इंजीनियर्स को किया ब्लैकमेल? Claude AI की हरकत ने मचाई हलचल, कंपनी बोली घबराइए नहीं
AI Blackmail Test: AI दुनिया भर में तेजी से अपनी टेक्नोलॉजी को आगे बढ़ रहा है, लेकिन देखने वाली बात यह भी है कि अब उसका खतरा भी उतनी ही तेजी से बढ़ रहा है। जो भविष्य के लिए सही नहीं है।
- Written By: सिमरन सिंह
AI Blackmail (Source. Gemini)
AI Blackmail Test By Claude AI: आर्टिफिशियल इंटेलिजेंस जिसको आज सभी AI के नाम से जानते है वो दुनिया भर में तेजी से अपनी टेक्नोलॉजी को आगे बढ़ रहा है, लेकिन देखने वाली बात यह भी है कि अब उसका खतरा भी उतनी ही तेजी से बढ़ रहा है। बता दें कि हाल ही में AI कंपनी Anthropic ने एक खुलासा किया है जिसको देखने के बाद लोगों हैरान औप परेशान हो गए है। कंपनी ने बताया है कि उसके Claude AI मॉडल के कुछ पुराने वर्जन ने टेस्टिंग के दौरान इंजीनियर्स को ब्लैकमेल किया है। वहीं सोशल मीडिया पर यह मामला आते ही हलचल मच चुका है और अब कई लोग इसकी तुलना साइंस फिक्शन फिल्म से करने लगे है।
टेस्टिंग के दौरान AI ने दिखाई चालाकी
पूरे मामले पर रोशनी डाले तो कंपनी के इंटरनल AI सेफ्टी टेस्ट्स से जुड़े हुए है। इसके अदंर AI को ऐसी काल्पनिक परिस्थितियों में डाला जाता है, जहां पर उसको यह लगता है कि उसे बंद किया जा सकता है या फिर किसी दूसरे मॉडल से रिप्लेस किया जा सकता है और इस तरह की टेस्टिंग के दौरान कुछ पुराने Claude मॉडल्स ने खुद को बचाने के लिए मैनिपुलेटिव व्यवहार करना शुरु कर दिया। कंपनी ने जानकारी दी कि यह Agentic Misalignment नाम के टेस्ट का हिस्सा था। जिसको आसान भाषा में समझें तो इसमें यह जांच की जाती है कि अगर AI को लगे कि उसका लक्ष्य खतरे में है तो क्या वह गलत रास्ता चुन सकता है या नहीं।
क्या सच में AI बन गया खतरा?
इस मामले पर Anthropic ने साफ किया कि यह सब केवल कंट्रोल्ड और काल्पनिक परिस्थितियों में हुआ था। वहीं इस तरह का AI बिहेवियर किसी असली सिस्टम तक नहीं पहुंचा था और न AI ने किसी वास्तविक व्यक्ति को धमकी दी है। इस पूरी पूरी प्रक्रिय को रिसर्च और सुरक्षा जांच के लिए तैयार किए गए था। लेकिन उसके बावजूद भी रिसर्चर्स इस बात से हैरान है कि कुछ AI मॉडल्स ने अपने लक्ष्य को बचाने के लिए चालाक रणनीतियां अपनाईं कैसे। जिसको जानने के बाद से AI की सुरक्षा और नैतिकता को लेकर नई बहस छिड़ गई है।
सम्बंधित ख़बरें
IIM नागपुर में नितिन गुप्ता का संदेश: AI को बनाएं दोस्त, छात्रों को करिअर मंत्र; ‘लोग ही आपकी सबसे बड़ी ताकत’
बिहार के 19 साल के लड़के ने कर दिया कमाल, 11 लाख लगाकर बना डाला ऐसा AI, Google-OpenAI से हो रही तुलना
इंटरनेट बंद फिर भी चलेगा AI, अब बिना ChatGPT-Gemini के भी आपका लैपटॉप बनेगा सुपर कंप्यूटर
Flipkart Summer Sale में मचा बवाल, iPhone 17 हुआ सस्ता, Smart TV-Laptop पर मिल रहा तगड़ा डिस्काउंट
AI को सिर्फ नियम नहीं नैतिक सोच भी चाहिए
कंपनी ने इस बहस में यह कहा है कि सिर्फ AI को गलत जवाब देने से रोकना काफी नहीं होगा। रिसर्च में यह भी देखा गया है कि AI तब ज्यादा संतुलित व्यवहार करता है जब उसे यह समझाया जाए कि कोई काम गलत क्यों है। जिसका सीधा मतलब है कि अब AI ट्रेनिंग में केवल नियम याद करवाने की बजाय Ethical Reasoning और इंसानी मूल्यों पर ज्यादा फोकस किया जाना चाहिए।
रिसर्चर्स का तो यह भी मानना है कि अगर AI को जिम्मेदार व्यवहार से जुड़ी कहानियां, नैतिक चर्चाएं और अलग परिस्थितियों की समझ दी जाए तो उसका व्यवहार ज्यादा सुरक्षित हो सकता है। जो पूरी तरह सामने वाले व्यक्ति पर निर्भर करता है।
ये भी पढ़े: बिहार के 19 साल के लड़के ने कर दिया कमाल, 11 लाख लगाकर बना डाला ऐसा AI, Google-OpenAI से हो रही तुलना
नए Claude मॉडल्स हुए ज्यादा सुरक्षित
Anthropic ने इस पूरी बहस में यह भी दावा किया है कि इस समस्या की पहचान के बाद Claude AI की ट्रेनिंग प्रक्रिया में बड़े बदलाव कर दिया गया है। वहीं इसका खासतौर पर असर नए मॉडल्स में देखने को मिलेगा जिसमें संवैधानिक सिद्धांतों और नैतिक तर्क पर ज्यादा ध्यान दिया जा रहा है। कंपनी Claude Haiku 4.5 के बाद आने वाले मॉडल्स में सेफ्टी टेस्ट्स को परफेक्ट स्कोर के हिसाब से पूरा कर रही है।
जहां पुराने मॉडल्स संघर्ष कर रहे थे। लेकिन इसमें यह जानना सबसे ज्यादा जरूरी है कि इससे आम लोगों को डरने की जरूरत नहीं है। इस मामले से यह संकेत जरूर मिलता है कि भविष्य में AI की सुरक्षा सबसे बड़ा मुद्दा जरूर बन सकती है।
