Hindi news, हिंदी न्यूज़, Hindi Samachar, हिंदी समाचार, Latest Hindi News
X
  • देश
  • महाराष्ट्र
  • विदेश
  • खेल
  • मनोरंजन
  • नवभारत विशेष
  • वायरल
  • धर्म
  • लाइफ़स्टाइल
  • बिज़नेस
  • करियर
  • टेक्नॉलजी
  • यूटिलिटी न्यूज़
  • फैक्ट चेक
  • हेल्थ
  • ऑटोमोबाइल
  • वीडियो

  • वेब स्टोरीज
  • फोटो
  • होम
  • विडियो
  • फटाफट खबरें

जनरेटिव AI ने साइबर संकट को बढ़ाया, विशेषज्ञों की चेतावनी

Cybersecurity advice: जनरेटिव AI साइबर सुरक्षा के क्षेत्र में नई और अधिक खतरनाक चुनौतियाँ भी खड़ी कर रहा हैं। ऐसे में चेतावनी दी गई है कि इससे कुछ परेशानी आ सकती है।

  • By सिमरन सिंह
Updated On: Sep 22, 2025 | 06:22 PM

AI से कैसे होगा खतरा। (सौ. Freepik)

Follow Us
Close
Follow Us:

Generative AI threats: जनरेटिव AI के तेजी से विकास ने जहां कई क्षेत्रों में क्रांतिकारी फायदे दिए हैं, वहीं साइबर सुरक्षा के क्षेत्र में नई और अधिक खतरनाक चुनौतियाँ भी खड़ी कर दी हैं। “साइबर सिक्योरिटी एक्सपर्ट्स का कहना है कि AI के जरिए साइबर खतरों की बाढ़-सी आ गई है” अब हैकर्स भी AI टूल्स का इस्तेमाल कर बेहद परिष्कृत और स्वचालित हमले कर रहे हैं, जिनसे यूजर्स का संवेदनशील डेटा एक क्लिक से चोरी हो सकता है और उन्हें इसकी भनक भी नहीं लगेगी।

कैसे बढ़ रहा है खतरा

कंपनियाँ और डेवलपर AI टूल्स को तेजी से अपनाकर कोडिंग और प्रोडक्ट डेवलपमेंट में लगा रहे हैं। विशेषज्ञों का कहना है कि इस रफ़्तार में सुरक्षा जाँच और त्रुटि सुधार पीछे छूट रहे हैं। कई अध्ययन दिखाते हैं कि AI-सहायता से लिखे गए कोड में भी सुरक्षात्मक कमियाँ रह सकती हैं, जिससे जोखिम सीधे यूजर्स तक पहुँचते हैं। विशेष रूप से ईमेल या कैलेंडर लिंक पर एक साधारण क्लिक से फिशिंग, मालवेयर इन्स्टॉलेशन या डेटा एक्सफिल्ट्रेशन हो सकता है।

हालिया घटनाओं से खतरे की झलक

अगस्त में AI की मदद से किये गए एक सप्लाई-चेन अटैक ने दुनिया का ध्यान खींचा था। हैकर्स ने Nx जैसे कोड रिपॉजिटरी प्लेटफॉर्म पर असली दिखने वाला प्रोग्राम प्रकाशित किया जिसे हजारों यूजर्स ने डाउनलोड कर लिया। बाद में इस मालवेयर ने पासवर्ड, क्रिप्टोकरेंसी वॉलेट और अन्य संवेदनशील डेटा चुराने का प्रयास किया। इसी तरह, अमेरिकी कंपनी एंथ्रोपिक ने ऐसे रैंसमवेयर कैंपेन का खुलासा किया जो पूरी तरह AI ड्रिवन था: AI सिस्टम पहले कमजोरियाँ ढूँढता, फिर उन पर हमला करके रैंसम की मांग कर रहा था।

ये भी पढ़े: Navratri 2025: अब AI से बनाएं शुभकामनाओं के लिए खास फोटो

जोखिम घटाने के उपाय क्या होने चाहिए

विशेषज्ञ सुझाव दे रहे हैं कि AI आधारित डेवलपमेंट में सुरक्षा को प्रारंभिक चरण से ही इंटीग्रेट किया जाए यानी “शिफ्ट-लेफ्ट” सुरक्षा अप्रोच अपनाई जाए। ऑडिट, थ्रेट मॉडलिंग, और नियमित पेनेट्रेशन टेस्ट के साथ-साथ थर्ड-पार्टी कोड की कड़ाई से जाँच ज़रूरी है। यूजर्स को भी सतर्क रहने की सलाह दी जा रही है: अनजान लिंक पर क्लिक न करें, मल्टी-फैक्टर ऑथेंटिकेशन ऑन रखें और नियमित बैकअप करें।

ध्यान दें

जनरेटिव AI ने टेक्नोलॉजी की सीमाएँ पीछे धकेली हैं, परंतु उसी के साथ साइबर खतरे भी अधिक स्वचालित और खतरनाक बने हैं। इस समय जरूरत है तेज़ विकास के साथ-साथ मजबूत सुरक्षा मानकों और नियमित निगरानी की वरना आने वाले समय में हम ज्यादा जटिल और तीव्र AI ड्रिवन साइबर अक्षमता का सामना कर सकते हैं।

Experts warn rising cyber security challenges due to rise of artificial intelligence

Get Latest   Hindi News ,  Maharashtra News ,  Entertainment News ,  Election News ,  Business News ,  Tech ,  Auto ,  Career and  Religion News  only on Navbharatlive.com

Published On: Sep 22, 2025 | 06:22 PM

Topics:  

  • AI Image
  • Artificial Intelligence
  • Google

सम्बंधित ख़बरें

1

YouTube का बड़ा एक्शन: भ्रामक AI मूवी ट्रेलर बनाने वाले चैनल्स पर लगा परमानेंट बैन

2

Google Pay का पहला क्रेडिट कार्ड लॉन्च, हर UPI ट्रांजैक्शन पर मिलेगा कैशबैक; जानें और कई फायदे

3

AI चैटबॉट्स पर आंख मूंदकर भरोसा खतरनाक? Google के नए टेस्ट ने खोली सच्चाई

4

अब उधार में भी होगा UPI पेमेंट! Google Pay Flex से बिना कार्ड मिलेगा क्रेडिट, जानिए कैसे

Popular Section

  • देश
  • विदेश
  • खेल
  • लाइफ़स्टाइल
  • बिज़नेस
  • वेब स्टोरीज़

States

  • महाराष्ट्र
  • उत्तर प्रदेश
  • मध्यप्रदेश
  • दिल्ली NCR
  • बिहार

Maharashtra Cities

  • मुंबई
  • पुणे
  • नागपुर
  • ठाणे
  • नासिक
  • अकोला
  • वर्धा
  • चंद्रपुर

More

  • वायरल
  • करियर
  • ऑटो
  • टेक
  • धर्म
  • वीडियो

Follow Us On

Contact Us About Us Disclaimer Privacy Policy Terms & Conditions Author
Marathi News Epaper Hindi Epaper Marathi RSS Sitemap

© Copyright Navbharatlive 2025 All rights reserved.