Get Updates
Get notified of breaking news, exclusive insights, and must-see stories!

पहली बार AI पर हत्या का आरोप: बेल्जियम के शख्स ने की आत्महत्या तो कंपनी ने मांगी माफी

पत्नी ने कहा कि एलिजा उनके सभी सवालों का जवाब देती थी। वह उनकी विश्वासपात्र बन गई थी। वह एक ऐसी डग्स बन चुकी थी, जिसके बिना वह नहीं रह सकता था। यदि वो नहीं होती तो आज उसके पति जिंदा होते।

AI chatbot pushed a Belgian man to suicide

Image: File

आर्टिफिशियल इंटेलिजेंस से होने वाले खतरे को लेकर दुनिया भर में एक लंबी बहस चल रही है। कई लोग हैं जो इसे मानव जाति के अस्तित्व के लिए खतरनाक मान रहे हैं। इस बीच पहली बार आर्टिफिशियल इंटेलिजेंस पर हत्या का आरोप लगा है। बेल्जियम में एक महिला ने आरोप लगाया है कि AI चैटबॉट की वजह से उनके पति की मौत हुई है। महिला ने दावा किया है कि 'एलिजा' नाम के चैटबॉट की वजह से उनके पति के मन में आत्महत्या के विचार आए थे।

आने लगे आत्महत्या के विचार

बेल्जियम के समाचार पत्र ला लिब्रे की एक रिपोर्ट के मुताबिक दो बच्चों का पिता 'एलिजा' के साथ नियमित रूप से बातचीत करता था। एलिजा से कई हफ्तों तक बातें करने के बाद उसके दिमाग में आत्महत्या करने के विचार आने लगा था। महिला के मुताबिक यदि उसके पति को एलिजा संग बात करने की आदत नहीं होती तो आज वे जीवित होते। रिपोर्ट के मुताबिक दो साल पहले युवक को क्लाइमेट चेंज को लेकर चिंता होनी शुरू हो गई थी। व्यक्ति को डर लगने लगा था कि जिस तरह से बड़े पैमाने पर कोयले का इस्तेमाल हो रहा है और दुनियाभर में प्रदूषण फैल रहा है, जल्द ही धरती पर जहरीली गैसें फैलना शुरू हो जाएंगी।

चैटहिस्ट्री से हुआ खुलासा

इसी चिंता के बीच उसने एलिजा से बात करना शुरू कर दिया। ला लिब्रे की रिपोर्ट के मुताबिक 6 सप्ताह तक हुई इस बातचीत की चैट हिस्ट्री से पता चलता है कि ये बातचीत बेहद तेजी से हानिकारक स्तर पर पहुंच गई थी। इस बातचीत में एक बार एलिजा ने शख्स को बताया था कि एक वक्त आएगा जब उसकी पत्नी और बच्चे मर चुके होंगे। चैट हिस्ट्री के मुताबिक चैटबॉट ने एक बार युवक से ये भी पूछा था कि वो अपनी पत्नी से ज्यादा प्यार करता है या उससे? एलिजा ने एक बार उसे ये भी कहा कि वो स्वर्ग में एक साथ जिंदगी बिताएंगे।

चैटबॉट ने आत्महत्या से नहीं रोका

रिपोर्ट के मुताबिक युवक की पत्नी ने बताया कि चैटबॉट से बात करने से वो अपने पति और दो बच्चों के साथ आराम से जिंदगी जी रहे थे। पत्नी ने कहा कि उसके पति ने आत्महत्या से पहले चैटबॉट को बताया था कि उसके दिमाग में ऐसे विचार आ रहे हैं, फिर भी एलिजा ने उसे आत्महत्या करने से रोकने की कोशिश नहीं की। पति की आत्महत्या के बाद पत्नी ने बेल्जियम की सरकार से अपील की है कि वो चैटबॉट के इस्तेमाल को रेग्युलेट करें और उस पर पाबंदी लगाएं ताकि भविष्य में फिर ऐसा न हो।

कंपनी ने मांगी माफी

इस पूरे मामले में डिजिटल विभाग के सेक्रेटरी ऑफ स्टेट मैथ्यू मिशेल ने कहा कि इस परिवार के साथ जो हुआ वो खतरनाक है, इस तरह के हादसों को रोकने की जरूरत है। वहीं, जिस कंपनी ने चैट बॉट एलिजा को बनाया उसने भी परिवार से वादा किया है कि वो इसे और बेहतर करेंगे। उन्होंने कहा कि आने वाले वक्त में यदि कोई व्यक्ति ऐसे विचार रखते हैं तो उसे वे आत्महत्या रोकथाम सेवाओं के द्वारा रोकने के प्रयास करेंगे। आपको बता दें कि एलिजा को एक यूएस स्टार्टअप द्वारा जीपीटी-जे तकनीक का उपयोग करके बनाया गया है। यह OpenAI के chatGPT-3 का ओपन-सोर्स विकल्प है।

More From
Prev
Next
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+