Get Updates
Get notified of breaking news, exclusive insights, and must-see stories!

AI based Weapons: मानव सभ्यता को खतरे में डाल रही है एआई आधारित हथियारों की होड़

AI based Weapons: अमेरिका, चीन, इज़रायल, साउथ कोरिया, रूस और ब्रिटेन जैसे देश काफी संख्या में एआई आधारित हथियार बना चुके हैं। इन हथियारों के जरिए बिना किसी मानव हस्तक्षेप के किसी भी टार्गेट को चिन्हित और तबाह किया जा सकता है। कई देशों के बीच एआई आधारित हथियारों के विकास को लेकर एक नई प्रतिद्वंद्विता शुरू हो गई है।

साउथ कोरिया ने एक एआई आधारित किलर रोबोट तैयार किया है जो किसी भी लक्ष्य पर जाकर लोगों को मार सकता है। यह ठीक उसी तरह काम करता है जिस तरह ड्रोन कर रहे हैं। एक बार प्रोग्राम कर दिए जाने के बाद ये किलर रोबोट्स अपने दुश्मन की खुद पहचान कर मार सकते हैं। ये किलर रोबोट त्वचा के रंग, चेहरे की बनावट, आवाज और कपड़े के आधार पर भी दुश्मन की पहचान कर सकते हैं और पल भर में तबाह कर सकते हैं। साउथ कोरिया में इसे लेकर तमाम आशंकाएं व्यक्त की गई हैं।

AI based arms race is putting human civilization in danger

वर्ष 2006 में ही यह खबर आ गई थी कि कोरियन मिलिट्री विश्वविद्यालय एवं सैमसंग टेकविन ने मिल कर एक रोबोट तैयार कर लिया है, जो पूरी तरह से मशीनगन से लैस था और उसे नार्थ कोरिया के साथ लगी अपनी सीमा पर तैनात भी कर दिया था। यह रोबोट साउथ कोरिया की सीमा में घुसने वालों को तुंरत पहचान कर स्वतः फायरिंग कर सकता था।

2018 में विश्व के 50 बड़े अंतरराष्ट्रीय विषेषज्ञों ने साउथ कोरिया के इस एआई आधारित हथियार की आलोचना करते हुए कोरिया एडवांस इंस्टीट्यूट आफ साइंस एंड टेक्नोलाॅजी का लिखित बाॅयकाॅट किया था। 2019 में खुद कोरिया की सरकार ने माना था कि इस तरह के एआई आधारित हथियारों की खोज एवं उत्पादन को लेकर वह चिंतित है और वह इसे लेकर किसी भी अंतरराष्ट्रीय कानून बनाने में सहयोग करने के लिए तैयार भी है।

दुनिया भर में मिलिट्री और सुरक्षा कार्रवाई पर होने वाले असर पर रिसर्च करने वाली कनाडा स्थित सेंटर फाॅर इंटरनेशनल गवर्नेंस इनोवेशन से जुड़ी ब्रांका मारीजान ने रूस द्वारा यूक्रेन पर किए गए हमले में एआई आधारित हथियारों के इस्तेमाल पर मार्च 2022 में अपनी एक रिपोर्ट में लिखा था कि यूक्रेन के बेगुनाह लोगों की जिंदगी को बचाने और अतिआवश्यक ढांचागत सुविधाओं को ध्वस्त होने से रोकने के लिए हमें कुछ और नहीं, बल्कि एक मजबूत डिप्लोमैटिक प्रयास के जरिए कुछ हथियारों और उनकी तकनीक पर रोक लगाने (जिनमें आर्टिफिशियल इंटेलिजेंस भी है) या उस पर नियम बनाने में अंतरराष्ट्रीय सहमति हासिल करनी चाहिए। यदि ऐसा नहीं हुआ तो हमले में सताए लाचार देश किसी भी अपरिपक्व तकनीकी का इस्तेमाल कर सकते हैं। रूस ने यूक्रेन के खिलाफ एआई आधारित केयूबी बीएलए लाॅयटरिंग म्यूनिशन का इस्तेमाल किया था और यूक्रेन के कई ठिकानों को तबाह किया था।

अमेरिका से प्रकाशित एयर एंड स्पेस फोर्सेज मैगजीन के अनुसार सितंबर 2021 में अमेरिका के एयरफोर्स सेकरेट्री फ्रैंक केंडाल ने दावा किया था कि एयरफोर्स के चीफ आर्किटेक्ट आफिस ने एआई एल्गोरिद्म (विशिष्ट गणितीय क्रम) आधारित एक हथियार का इस्तेमाल लाइव ऑपरेशन किल चेन में किया था। यानी अमेरिका ने प्रायोगिक तौर पर नहीं बल्कि किसी को मारने के लिए एआई हथियार का सीधा इस्तेमाल किया था। यह ऑपरेशन ऑटोमेटेड टार्गेट रिकोगनिशन सिस्टम के जरिए किया गया था। हालांकि केंडाल ने यह नहीं बताया कि इस ऑपरेशन में कितने लोग मारे गए थे। लेकिन इतना जरूर कहा कि इस हथियार के जरिए 'मिलिट्री निर्णय में तेजी और परिणाम एकदम सटीक' प्राप्त हुआ था।

अमेरिकी न्यूज एजंसी डोजोंस और वाल स्ट्रीट जनरल की सहयोगी "मार्केट वाच" वेबसाइट में मई 2023 को छपी एक रिपोर्ट के अनुसार चीन ने एआई आधारित हथियारों के अनुसंधान एवं विकास पर काफी बड़ा निवेश किया है। उसका ब्लोफिश ए2 ऑटोनोमस ड्रोन इसी कैटेगरी में आता है। इसी तरह का एक और हथियार क्यिानलांग तृतीय भी है। यह एक एंटी सबमेरिन वारफेअर है।

रियल टाइम डाटा एनालिसिस में भी चीन एआई तकनीक का इस्तेमाल कर रहा है। परंतु चीन भी उन देशों में शामिल है जो लगातार एक रेगुलेटरी फ्रेमवर्क की मांग कर रहा है।
यूं तो पिछले सात साल से संयुक्त राष्ट्र संघ के मंच से इस बात की चर्चा हो रही है कि आधुनिक एआई आधारित हथियार मानवता के लिए खतरा हैं, पर पहली बार 18 जुलाई 2023 को संयुक्त राष्ट्र की सुरक्षा परिषद ने इस पर आधिकारिक बैठक बुलाई। पहली बार यह चर्चा की गई कि मानवरहित हथियारों से किस तरह विश्वशांति को खतरा उत्पन्न हो गया है।

इस बैठक में बोलते हुए संयुक्त राष्ट्र महासंघ के सेक्रेट्री जनरल एंटोनियों गुतेरेस ने कहा कि ''आर्टिफिशियल इंटेलीजेंस यानी एआई विश्व शांति और मानवता के लिए बहुत बड़ा खतरा साबित हो सकता है। अगर इसके इस्तेमाल पर कोई नियम या अंतरराष्ट्रीय कानून नहीं बनता तो यह विध्वंसक साबित हो सकता है।'' बकौल गुतेरेस एआई पहले ही राजनीति, कानूनी, नैतिकता और मानवता पर काफी असर डाल चुका है। इतना ही नहीं गुतेरेस ने यहां तक कहां कि आतंकवादियों, अपराधियों और किसी देश द्वारा गलत इरादे से आर्टिफिशियल इंटेलिजेंस का इस्तेमाल किया गया तो इंसानी मौत और विध्वंस का जो खतरा पैदा होगा वह किसी भी कल्पना से परे है।

संयुक्त राष्ट्र संघ की सुरक्षा परिषद में एआई को लेकर जो आशंका जताई गई वो गलत नहीं है। एआई आधारित हथियार दुर्घटनावश भी सामान्य नागरिकों की जान ले सकते हैं। यदि ऐसा हुआ तो किसे जिम्मेदार ठहराया जाएगा? कौन हताहतों के लिए न्याय करेगा? मशीन को आदमी से बदल देने के बाद युद्धक टकराव बढ़ जाएंगे, क्योंकि इस तरह के हथियार की पहुंच पर कोई रोक टोक नहीं है। यदि एआई आधारित हथियारों की आपूर्ति ऐसे ही होती रही तो इसका असर मानव जाति पर बहुत बुरा होने वाला है।

जिस तरह से सोशल मीडिया टूल्स इस समय सामाजिक सौहार्द बिगाड़ने, लोगों के बीच घृणा फैलाने और लोकतांत्रिक संस्थाओं को बाईपास करने में इस्तेमाल हो रहे हैं, उसी तरह एआई आधारित हथियार भी बड़े पैमाने पर हत्या और खून खराबे के कारक बन सकते हैं। इसलिए जरूरी है कि संयुक्त राष्ट्र संघ के बैनर तले एक मानक कानून बने, जिसमें सदस्य देशों के अलावा निजी क्षेत्र, नागरिक समूह, स्वतंत्र वैज्ञानिक और एआई इनोवेशन में शामिल लोगों को भी जिम्मेदार बनाया जाए। और इंटरनेशनल एटोमिक एजेंसी की तरह एआई आधारित उपकरणों के नियमन के लिए एक नया संयुक्त राष्ट्र संघ का संगठन बनाया जाए।

भारत एआई के न्यायपूर्ण इस्तेमाल के लिए पहले से ही सचेत है। जल्दी ही मोदी सरकार एक ड्राफ्ट डिजिटल इंडिया बिल लेकर आने वाली है। टैलीकाॅम रेगुलेटरी ऑथोरिटी ऑफ इंडिया की देखरेख में तैयार हो रहे इस बिल के बारे में कहा गया है कि देश में एक स्वायत्त आर्टिफिशियल इंटेलिजेंस एंड डाॅटा ऑथोरिटी ऑफ़ इंडिया का गठन किया जाएगा, जो कानूनी रूप से एआई तकनीक के उपयोग का नियमन करेगा।

(इस लेख में लेखक ने अपने निजी विचार व्यक्त किए हैं। लेख में प्रस्तुत किसी भी विचार एवं जानकारी के प्रति Oneindia उत्तरदायी नहीं है।)

More From
Prev
Next
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+