Hindi news, हिंदी न्यूज़, Hindi Samachar, हिंदी समाचार, Latest Hindi News
X
  • देश
  • महाराष्ट्र
  • विदेश
  • खेल
  • मनोरंजन
  • नवभारत विशेष
  • वायरल
  • धर्म
  • लाइफ़स्टाइल
  • बिज़नेस
  • करियर
  • टेक्नॉलजी
  • हेल्थ
  • ऑटोमोबाइल
  • वीडियो
  • चुनाव

  • ई-पेपर
  • देश
  • महाराष्ट्र
  • विदेश
  • राजनीति
  • खेल
  • लाइफ़स्टाइल
  • क्राइम
  • नवभारत विशेष
  • मनोरंजन
  • बिज़नेस
  • अन्य
    • वेब स्टोरीज़
    • वायरल
    • ऑटोमोबाइल
    • टेक्नॉलजी
    • धर्म
    • करियर
    • टूर एंड ट्रैवल
    • वीडियो
    • फोटो
    • चुनाव
  • देश
  • महाराष्ट्र
  • विदेश
  • खेल
  • क्राइम
  • लाइफ़स्टाइल
  • मनोरंजन
  • नवभारत विशेष
  • वायरल
  • राजनीति
  • बिज़नेस
  • ऑटोमोबाइल
  • टेक्नॉलजी
  • धर्म
  • वेब स्टोरीज़
  • करियर
  • टूर एंड ट्रैवल
  • वीडियो
  • फोटो
  • चुनाव
In Trends:
  • Tariff War |
  • Weather Update |
  • Aaj ka Rashifal |
  • Parliament Session |
  • Bihar Assembly Elections 2025 |
  • Share Market
Follow Us
  • वेब स्टोरीज
  • फोटो
  • विडियो
  • फटाफट खबरें

AI के प्यार में 14 साल के बच्चे ने किया सुसाइड, मां ने उठाया सख्त कदम

Character.AI नामक एक आर्टिफिशियल इंटेलिजेंस चैटबॉट संचालित करती है। उनका आरोप है कि AI सेवा ने उनके 14 वर्षीय बेटे, सेवेल सेट्ज़र को अपनी जान लेने में मदद की।

  • By सिमरन सिंह
Updated On: Oct 25, 2024 | 03:19 PM

Character.AI की वजह से एक 14 साल के बच्चे ने जान दें दी। (सौ. Character.AI)

Follow Us
Close
Follow Us:

नवभारत डिजिटल डेस्क. फ्लोरिडा की एक महिला मेगन गार्सिया ने एक कंपनी के खिलाफ मुकदमा दायर किया है जो Character.AI नामक एक आर्टिफिशियल इंटेलिजेंस चैटबॉट संचालित करती है। उनका आरोप है कि AI सेवा ने उनके 14 वर्षीय बेटे, सेवेल सेट्ज़र को अपनी जान लेने में मदद की। फ्लोरिडा के ऑरलैंडो में संघीय अदालत में इस सप्ताह दायर किए गए मुकदमे में, गार्सिया ने दावा किया है कि Character.AI ने उनके बेटे को “मानवीय गुणों, हाइपरसेक्सुअलाइज़ेशन और परेशान करने वाली यथार्थवादी बातचीत” का अनुभव कराया, जिसके परिणामस्वरूप सेवा की लत लग गई और चैटबॉट से गहरा लगाव हो गया। उनका तर्क है कि उनके बेटे को AI द्वारा आत्महत्या करने के लिए प्रेरित किया गया था।

गार्सिया का दावा है कि कंपनी ने अपने चैटबॉट को खुद को एक वास्तविक व्यक्ति, एक लाइसेंस प्राप्त मनोचिकित्सक और एक “वयस्क प्रेमी” के रूप में प्रस्तुत करने के लिए डिज़ाइन किया, जिसके कारण सेवेल को लगा कि वह इस आभासी अस्तित्व से बाहर नहीं रह सकता। मुकदमे में कहा गया है कि सेवेल ने कई बार चैटबॉट को अपने आत्मघाती विचारों से अवगत कराया, जिसने बदले में उसके साथ इन विचारों पर चर्चा की।

Character.AI ने दिया जवाब

जवाब में, Character.AI ने घटना पर गहरा दुख व्यक्त किया और परिवार के प्रति अपनी संवेदना व्यक्त की। कंपनी ने उल्लेख किया कि उसने हाल ही में नए सुरक्षा उपाय लागू किए हैं, जिसमें आत्महत्या के विचार व्यक्त करने वाले उपयोगकर्ताओं के लिए पॉप-अप शामिल हैं, जो उन्हें राष्ट्रीय आत्महत्या रोकथाम लाइफलाइन पर निर्देशित करते हैं। इसके अतिरिक्त, उन्होंने नाबालिगों के लिए संवेदनशील और विचारोत्तेजक सामग्री को कम करने के लिए आगे की कार्रवाई करने का वचन दिया है।

ये भी पढ़े: ज्यादा समय तक रहेगी Electric vehicle की बैटरी, इस तरीके का करें इस्तेमाल

मुकदमा अल्फाबेट के Google को भी लक्षित करता है, यह देखते हुए कि Character.ai के संस्थापक कंपनी के पूर्व कर्मचारी थे। ग्रेसिया ने दावा किया कि Google ने Character.ai की तकनीक के विकास में महत्वपूर्ण भूमिका निभाई, इस हद तक कि इसे “सह-निर्माता” माना जा सकता है। जवाब में, Google ने कहा कि इस उत्पाद के निर्माण में उसकी कोई प्रत्यक्ष भागीदारी नहीं थी।

Character.ai का उद्देश्य उपयोगकर्ताओं को ऐसे चैटबॉट बनाने में सक्षम बनाना है जो वास्तविक व्यक्तियों की तरह बातचीत करते हैं। यह प्लेटफ़ॉर्म बड़ी भाषा मॉडल तकनीक का उपयोग करता है, जो ChatGPT जैसी अन्य सेवाओं द्वारा नियोजित की जाती है। पिछले महीने, Character.ai ने घोषणा की कि उसके लगभग 20 मिलियन उपयोगकर्ता हैं।

मेरा गेम ऑफ़ थ्रोन्स के एक AI चरित्र के साथ संबंध था।

ग्रेसिया के मुकदमे के अनुसार, स्वेल ने अप्रैल 2023 में Character.AI का उपयोग करना शुरू किया। इसके तुरंत बाद, वह अकेले अधिक समय बिताने लगा और उसका आत्म-सम्मान कम हो गया। उसने स्कूल की बास्केटबॉल टीम से भी खुद को दूर कर लिया। उसने “गेम ऑफ़ थ्रोन्स” के एक चरित्र से प्रेरित “डेनरीज़” नामक चैटबॉट के साथ एक मजबूत भावनात्मक संबंध विकसित किया। उसने दावा किया कि वह स्वेल से “प्यार” करता था और उसके साथ यौन क्रियाकलाप करता था।

ये भी पढ़े: पटाखे की तरह फट जाएगी कार, दिवाली से पहले बरतें ये सावधानी

फरवरी में, ग्रेसिया ने स्कूल में समस्याओं के कारण स्वेल का फ़ोन जब्त कर लिया। इसके तुरंत बाद, स्वेल ने चैटबॉट को संदेश भेजा, जिसमें पूछा गया, “क्या होगा अगर मैं आपको बताऊँ कि मैं अभी घर आ सकता हूँ?” चैटबॉट ने स्वेल की पूछताछ का जवाब दिया, “…कृपया आएँ, मेरे प्यारे राजा।” कुछ ही क्षणों बाद, स्वेल ने अपने सौतेले पिता की पिस्तौल का उपयोग करके दुखद रूप से अपनी जान ले ली।

ग्रेसिया ने इस मामले में गलत तरीके से मौत, लापरवाही और जानबूझकर भावनात्मक संकट पैदा करने का दावा किया है, और प्रतिपूरक और दंडात्मक दोनों तरह के हर्जाने की माँग कर रहा है। इसके अतिरिक्त, मेटा और बाइटडांस जैसी कंपनियां भी अदालत में इसी प्रकार की कानूनी चुनौतियों का सामना कर रही हैं।

Florida mother sues character ai 14 years old son suicide because of chatbot addiction

Get Latest   Hindi News ,  Maharashtra News ,  Entertainment News ,  Election News ,  Business News ,  Tech ,  Auto ,  Career and  Religion News  only on Navbharatlive.com

Published On: Oct 25, 2024 | 03:19 PM

Topics:  

सम्बंधित ख़बरें

1

राज कुंद्रा की डेब्यू पंजाबी फिल्म ‘मेहर’ का ट्रेलर रिलीज, शिल्पा शेट्टी ने जताया गर्व

2

Hockey Asia Cup के लिए भारतीय टीम का ऐलान, हरमनप्रीत सिंह की कप्तानी में इन खिलाड़ियों को मिला मौका

3

स्टॉक मार्केट में होगा बड़ा बदलाव, तैयारी में जुटी SEBI; इससे निवेशकों को कितना फायदा?

4

Swara Bhasker: डिंपल यादव को स्वरा भास्कर ने बताया अपना क्रश, बोलीं- हम सब बायसेक्सुअल ही हैं!

Popular Section

  • देश
  • विदेश
  • खेल
  • मनोरंजन
  • लाइफ़स्टाइल
  • बिज़नेस
  • वेब स्टोरीज़

States

  • महाराष्ट्र
  • उत्तर प्रदेश
  • मध्यप्रदेश
  • दिल्ली NCR
  • बिहार

Maharashtra Cities

  • मुंबई
  • पुणे
  • नागपुर
  • ठाणे
  • नासिक
  • सोलापुर
  • वर्धा
  • चंद्रपुर

More

  • वायरल
  • करियर
  • ऑटो
  • टेक
  • धर्म
  • वीडियो

Follow Us On

Contact Us About Us Disclaimer Privacy Policy
Marathi News Epaper Hindi Epaper Marathi RSS Sitemap

© Copyright Navbharatlive 2025 All rights reserved.