AI Tools (Source. Design)
Artificial Intelligence Competition: आर्टिफिशियल इंटेलिजेंस की दुनिया में बड़ा बदलाव देखने को मिल रहा है। OpenAI, Google और Anthropic अब अपने एडवांस AI मॉडल्स को सुरक्षित रखने के लिए एक साथ आ गई हैं।
रिपोर्ट्स के मुताबिक, ये कंपनियां मिलकर उन तरीकों पर रोक लगाने की तैयारी कर रही हैं, जिनके जरिए उनके AI मॉडल्स की नकल की जा रही है। खासतौर पर सस्ते AI मॉडल बनाने की कोशिशों को टारगेट किया जा रहा है।
AI कंपनियों का फोकस अब मॉडल डिस्टिलेशन पर है। यह एक ऐसी तकनीक है, जिसमें छोटे मॉडल को बड़े और एडवांस मॉडल की तरह ट्रेन किया जाता है। आमतौर पर यह प्रक्रिया वैध मानी जाती है, लेकिन कंपनियों का आरोप है कि कुछ डेवलपर्स इसका गलत इस्तेमाल कर रहे हैं। रिपोर्ट के अनुसार, बड़ी मात्रा में डेटा निकालकर छोटे AI मॉडल तैयार किए जा रहे हैं, जो कम लागत में बड़े मॉडल्स को टक्कर दे सकते हैं।
इन कंपनियों के बीच जानकारी साझा करने का काम Frontier Model Forum के जरिए हो रहा है। इस फोरम की शुरुआत 2023 में OpenAI, Google, Anthropic और Microsoft ने मिलकर की थी। इसका मकसद एडवांस AI सिस्टम्स को सुरक्षित और जिम्मेदार तरीके से विकसित करना है।
अब इसी प्लेटफॉर्म का इस्तेमाल संदिग्ध गतिविधियों को पहचानने और उन्हें रोकने के लिए किया जा रहा है। कंपनियां आपस में डेटा और पैटर्न शेयर कर रही हैं, ताकि यह समझा जा सके कि कहां और कैसे उनके मॉडल्स की कॉपी हो रही है।
AI मॉडल की चोरी का मुद्दा तब और गरमाया जब DeepSeek पर 2025 में OpenAI ने अपने मॉडल की नकल करने का आरोप लगाया। कहा गया कि DeepSeek ने डिस्टिलेशन तकनीक का इस्तेमाल कर “DeepSeek R1” मॉडल तैयार किया। हालांकि इन दावों की स्वतंत्र पुष्टि नहीं हो सकी, लेकिन इस घटना ने कंपनियों की चिंता जरूर बढ़ा दी है।
ये भी पढ़े: अब बच्चों का स्क्रीन टाइम बनेगा स्मार्ट, Netflix Playground ऐप लॉन्च
रिपोर्ट्स के मुताबिक, इस तरह के AI मॉडल्स की वजह से अमेरिकी टेक कंपनियों को हर साल अरबों डॉलर का नुकसान हो रहा है। यही कारण है कि अब इसे सिर्फ बिजनेस नहीं, बल्कि राष्ट्रीय सुरक्षा का मुद्दा भी माना जा रहा है।
OpenAI, Google और Anthropic का यह कदम आने वाले समय में AI सेक्टर की दिशा बदल सकता है। जहां एक तरफ सुरक्षा कड़ी होगी, वहीं दूसरी तरफ कंपनियों के बीच प्रतिस्पर्धा और भी तेज हो जाएगी।