अब AI भी खतरे में, Google Gemini की नकल बनाने की साजिश, 1 लाख प्रॉम्प्ट डालकर हैकर्स ने समझा काम
AI Security: Google ने बड़ा खुलासा किया है। कंपनी के मुताबिक, हैकर्स ने उसके एआई चैटबॉट Google Gemini की नकल तैयार करने की कोशिश की। इसके लिए सिस्टम पर 1 लाख से ज्यादा प्रॉम्प्ट डाले गए।
- Written By: सिमरन सिंह
AI Security Threat (Source. Freepik)
AI Security Threat: Google ने बड़ा खुलासा किया है। कंपनी के मुताबिक, हैकर्स ने उसके एआई चैटबॉट Google Gemini की नकल तैयार करने की कोशिश की। इसके लिए सिस्टम पर 1 लाख से ज्यादा बेहद सोच-समझकर बनाए गए प्रॉम्प्ट डाले गए। इन सवालों का मकसद सीधे कोड चोरी करना नहीं था, बल्कि यह समझना था कि एआई कैसे सोचता है, जवाब देता है और फैसले लेता है। कंपनी के अनुसार, इस तरह के हमलों को “मॉडल एक्सट्रैक्शन” या “डिस्टिलेशन अटैक” कहा जाता है। यानी बाहर से लगातार सवाल पूछकर एआई के दिमाग का नक्शा तैयार करना।
प्रॉम्प्ट के जरिए कैसे की गई क्लोनिंग की कोशिश?
Google ने बताया कि हमलावर बार-बार ऐसे सवाल पूछ रहे थे जो Gemini की अंदरूनी लॉजिक को समझने में मदद करें। इसमें सिचुएशन बेस्ड प्रश्न, लॉजिक पजल, कॉन्टेक्स्ट वाले सवाल और अलग-अलग परिस्थितियों पर आधारित टेस्ट शामिल थे। इन सवालों के जरिए हमलावर यह जानने की कोशिश कर रहे थे कि मॉडल जानकारी को कैसे प्रोसेस करता है, संदर्भ को कैसे समझता है और समस्याओं को कैसे हल करता है।
चूंकि बड़े भाषा मॉडल हर किसी को जवाब देते हैं, इसलिए यही उनकी सबसे बड़ी ताकत और कमजोरी दोनों बन जाती है। लगातार जवाब मिलने से हैकर्स धीरे-धीरे पैटर्न समझ लेते हैं और उसी आधार पर अपने जैसे मॉडल तैयार करने की कोशिश करते हैं।
सम्बंधित ख़बरें
Google का बड़ा ऐलान, Pixel 9 Pro यूजर्स की टेंशन खत्म, फ्री में बदली जाएगी डिस्प्ले और मिलेगा रिप्लेसमेंट
Google का फ्री AI Course मचा रहा धूम, बिना Coding सीखे बनाएं App, मिलेगा Professional Certificate
Google का बड़ा बदलाव, अब बिना मोबाइल नंबर नहीं मिलेगा पूरा 15GB स्टोरेज, यूजर्स में मची हलचल
AI IPL Video Trend: बिना स्टेडियम जाए बन जाइए VIP फैन, सोशल मीडिया पर छाया ये नया AI ट्रेंड
हमले का खुलासा कैसे हुआ?
इस संदिग्ध गतिविधि को Google की आंतरिक सुरक्षा टीम Google Threat Intelligence Group ने पकड़ा। यह टीम डिजिटल खतरों पर लगातार नजर रखती है। उन्होंने बिहेवियर एनालिटिक्स, ऑटोमेटेड क्लासिफायर और अनोमली डिटेक्शन जैसे टूल्स का सहारा लिया। जब कुछ अकाउंट्स से असामान्य तरीके से हजारों प्रॉम्प्ट भेजे जाने लगे, तो सिस्टम ने उन्हें फ्लैग कर दिया। जांच के बाद संदिग्ध अकाउंट्स को ब्लॉक कर दिया गया और अतिरिक्त सुरक्षा उपाय लागू किए गए, ताकि बार-बार सवाल पूछकर संवेदनशील जानकारी निकालना मुश्किल हो सके।
सिर्फ बड़ी कंपनियां ही नहीं, स्टार्टअप भी खतरे में
विशेषज्ञों का मानना है कि एआई मॉडल पारंपरिक सॉफ्टवेयर की तरह बंद सिस्टम नहीं होते। वे इंटरैक्टिव होते हैं और लगातार यूजर को जवाब देते हैं। यही खुलापन उन्हें रिवर्स-इंजीनियरिंग के लिए आसान निशाना बना देता है। Google ने चेतावनी दी है कि सिर्फ बड़ी कंपनियां ही नहीं, बल्कि छोटी फर्म्स और स्टार्टअप्स भी खतरे में हैं। कई कंपनियां अपने कस्टम एआई मॉडल में बिजनेस से जुड़ा संवेदनशील डेटा इस्तेमाल करती हैं। अगर उन मॉडलों से भी इसी तरह लगातार सवाल पूछे जाएं, तो व्यापारिक जानकारी लीक हो सकती है।
ये भी पढ़े: भारत बन रहा AI और क्लाउड का सुपरपावर, लेकिन क्या आपके डेटा पर मंडरा रहा है बड़ा खतरा?
खतरा सिर्फ Google तक सीमित नहीं
यह मामला सिर्फ Google का नहीं है। इससे पहले OpenAI ने भी आरोप लगाया था कि कुछ कंपनियां इसी तरह की डिस्टिलेशन तकनीक से उसके मॉडल्स की नकल करने की कोशिश कर रही हैं। स्पष्ट है कि पूरा एआई सेक्टर इस नए साइबर खतरे से जूझ रहा है। जैसे-जैसे एआई टूल्स रोजमर्रा की जिंदगी और बिजनेस का हिस्सा बनते जा रहे हैं, वैसे-वैसे सिर्फ डेटा ही नहीं, बल्कि “इंटेलिजेंस” यानी एआई की सोच को भी सुरक्षित रखना अनिवार्य हो गया है।
