AI Security Threat (Source. Freepik)
AI Security Threat: Google ने बड़ा खुलासा किया है। कंपनी के मुताबिक, हैकर्स ने उसके एआई चैटबॉट Google Gemini की नकल तैयार करने की कोशिश की। इसके लिए सिस्टम पर 1 लाख से ज्यादा बेहद सोच-समझकर बनाए गए प्रॉम्प्ट डाले गए। इन सवालों का मकसद सीधे कोड चोरी करना नहीं था, बल्कि यह समझना था कि एआई कैसे सोचता है, जवाब देता है और फैसले लेता है। कंपनी के अनुसार, इस तरह के हमलों को “मॉडल एक्सट्रैक्शन” या “डिस्टिलेशन अटैक” कहा जाता है। यानी बाहर से लगातार सवाल पूछकर एआई के दिमाग का नक्शा तैयार करना।
Google ने बताया कि हमलावर बार-बार ऐसे सवाल पूछ रहे थे जो Gemini की अंदरूनी लॉजिक को समझने में मदद करें। इसमें सिचुएशन बेस्ड प्रश्न, लॉजिक पजल, कॉन्टेक्स्ट वाले सवाल और अलग-अलग परिस्थितियों पर आधारित टेस्ट शामिल थे। इन सवालों के जरिए हमलावर यह जानने की कोशिश कर रहे थे कि मॉडल जानकारी को कैसे प्रोसेस करता है, संदर्भ को कैसे समझता है और समस्याओं को कैसे हल करता है।
चूंकि बड़े भाषा मॉडल हर किसी को जवाब देते हैं, इसलिए यही उनकी सबसे बड़ी ताकत और कमजोरी दोनों बन जाती है। लगातार जवाब मिलने से हैकर्स धीरे-धीरे पैटर्न समझ लेते हैं और उसी आधार पर अपने जैसे मॉडल तैयार करने की कोशिश करते हैं।
इस संदिग्ध गतिविधि को Google की आंतरिक सुरक्षा टीम Google Threat Intelligence Group ने पकड़ा। यह टीम डिजिटल खतरों पर लगातार नजर रखती है। उन्होंने बिहेवियर एनालिटिक्स, ऑटोमेटेड क्लासिफायर और अनोमली डिटेक्शन जैसे टूल्स का सहारा लिया। जब कुछ अकाउंट्स से असामान्य तरीके से हजारों प्रॉम्प्ट भेजे जाने लगे, तो सिस्टम ने उन्हें फ्लैग कर दिया। जांच के बाद संदिग्ध अकाउंट्स को ब्लॉक कर दिया गया और अतिरिक्त सुरक्षा उपाय लागू किए गए, ताकि बार-बार सवाल पूछकर संवेदनशील जानकारी निकालना मुश्किल हो सके।
विशेषज्ञों का मानना है कि एआई मॉडल पारंपरिक सॉफ्टवेयर की तरह बंद सिस्टम नहीं होते। वे इंटरैक्टिव होते हैं और लगातार यूजर को जवाब देते हैं। यही खुलापन उन्हें रिवर्स-इंजीनियरिंग के लिए आसान निशाना बना देता है। Google ने चेतावनी दी है कि सिर्फ बड़ी कंपनियां ही नहीं, बल्कि छोटी फर्म्स और स्टार्टअप्स भी खतरे में हैं। कई कंपनियां अपने कस्टम एआई मॉडल में बिजनेस से जुड़ा संवेदनशील डेटा इस्तेमाल करती हैं। अगर उन मॉडलों से भी इसी तरह लगातार सवाल पूछे जाएं, तो व्यापारिक जानकारी लीक हो सकती है।
ये भी पढ़े: भारत बन रहा AI और क्लाउड का सुपरपावर, लेकिन क्या आपके डेटा पर मंडरा रहा है बड़ा खतरा?
यह मामला सिर्फ Google का नहीं है। इससे पहले OpenAI ने भी आरोप लगाया था कि कुछ कंपनियां इसी तरह की डिस्टिलेशन तकनीक से उसके मॉडल्स की नकल करने की कोशिश कर रही हैं। स्पष्ट है कि पूरा एआई सेक्टर इस नए साइबर खतरे से जूझ रहा है। जैसे-जैसे एआई टूल्स रोजमर्रा की जिंदगी और बिजनेस का हिस्सा बनते जा रहे हैं, वैसे-वैसे सिर्फ डेटा ही नहीं, बल्कि “इंटेलिजेंस” यानी एआई की सोच को भी सुरक्षित रखना अनिवार्य हो गया है।