वो हथियार, जिसे बैन करना चाहते हैं 30 से ज्यादा देश, टेक्नोलॉजी ऐसी कि यकीन करना मुश्किल

साइंस-फिक्शन फिल्मों का ‘किलर रोबोट’ अब पर्दे से निकलकर हकीकत में जंग के मैदान तक पहुंच चुका है. लेथल ऑटोनॉमस वेपन सिस्टम्स (Lethal Autonomous Weapon Systems – LAWS) युद्ध की परिभाषा बदल रहे हैं. ये वो हथियार हैं, जो बिना किसी मानवीय हस्तक्षेप के खुद अपना टारगेट पहचानते हैं और उसे नेस्तानाबूद कर देते हैं. यही वजह है कि आज अंतरराष्ट्रीय स्तर पर इन्हें लेकर एक बड़ी बहस छिड़ गई है. 30 से अधिक देश इन हथियारों पर पूर्ण प्रतिबंध चाहते हैं, क्योंकि सवाल सिर्फ तकनीक का नहीं, बल्कि नैतिकता का भी है. आज हम इन्हीं हथियारों और उनमें लगाई गई टेक्नोलॉजी पर डिटेल में लिख रहे हैं.

आखिर क्या होते हैं ऑटोनॉमस किलर ड्रोन?

ऑटोनॉमस किलर ड्रोन मूल रूप से ऐसी मशीनें हैं, जो युद्ध में तीन अहम काम खुद करती हैं- 1. लक्ष्य ढूंढना, 2. उसे पहचानना और 3. उस पर हमला करना. इंसान सिर्फ उन्हें एक्टिवेट करता है, उसके बाद पूरा फैसला मशीन के एल्गोरिद्म और आर्टिफिशियल इंटेलिजेंस के हाथ में चला जाता है.

इन हथियारों को आमतौर पर तीन श्रेणियों में बांटा जाता है-

  • पहली श्रेणी वह है जिसमें हमला करने से पहले इंसान की मंजूरी जरूरी होती है.
  • दूसरी श्रेणी में मशीन निर्णय ले सकती है, लेकिन इंसान चाहे तो बीच में हस्तक्षेप करके उसे रोक सकता है.
  • तीसरी श्रेणी वह है जिसमें इंसान का कोई रोल ही नहीं होता. यही असली LAWS माने जाते हैं और इन्हीं को लेकर सबसे ज्यादा चिंता जताई जा रही है.

आर्टिफिशियल इंटेलिजेंस से चलता है पूरा सिस्टम

इन किलर मशीनों की ताकत उनका आर्टिफिशियल इंटेलिजेंस और अत्याधुनिक सेंसर सिस्टम होता है. ड्रोन के अंदर कई तरह के सेंसर लगाए जाते हैं, जो आसपास के माहौल को लगातार स्कैन करते रहते हैं.

LiDAR तकनीक लेज़र की मदद से इलाके का थ्री-डी नक्शा तैयार करती है. थर्मल कैमरे अंधेरे में भी इंसानी शरीर की गर्मी पकड़ सकते हैं, जबकि रडार दूर तक चल रही गतिविधियों को पहचान सकता है. इन सभी सेंसर से मिलने वाली जानकारी को एक साथ मिलाकर ड्रोन अपने आसपास की पूरी तस्वीर बना लेता है.

इसके बाद AI आधारित डीप लर्निंग सिस्टम काम करता है. यह लाखों तस्वीरों और डेटा पर प्रशिक्षित होता है. कैमरे से मिली तस्वीरों को यह कुछ मिलीसेकंड में एनालिसिस करके तय कर सकता है कि सामने दिख रहा लक्ष्य सैनिक है, कोई सैन्य वाहन है या कोई आम नागरिक.

सबसे विवादित चरण इसके बाद आता है, जब एल्गोरिद्म तय करता है कि हमला करना चाहिए या नहीं. इसे थ्रेट असेसमेंट एल्गोरिद्म कहा जाता है. इसमें मशीन खतरे का स्तर, आसपास मौजूद लोगों और सैन्य महत्व जैसे कई पहलुओं को देखकर निर्णय लेती है, लेकिन इसमें मानवीय नैतिकता शामिल नहीं होती.

कैसे करता है अटैक?

इन ड्रोन में नेविगेशन के लिए GPS के साथ-साथ एडवांस तकनीकें भी होती हैं. उदाहरण के लिए SLAM तकनीक की मदद से ड्रोन खुद ही आसपास का नक्शा बनाकर रास्ता तय कर सकता है. अगर GPS सिग्नल जाम भी हो जाए, तब भी यह अपना रास्ता नहीं भूलता.

कई बार इन ड्रोन को ग्रुप में भी इस्तेमाल किया जाता है, जिसे स्वॉर्म टेक्नोलॉजी कहा जाता है. इसमें कई ड्रोन आपस में नेटवर्क बनाकर काम करते हैं. अगर एक ड्रोन को कोई जानकारी मिलती है, तो वह तुरंत बाकी सभी ड्रोन तक पहुंच जाती है.

हमले के लिए अक्सर “लॉइटरिंग म्यूनिशन” का इस्तेमाल होता है. ऐसे ड्रोन लंबे समय तक आसमान में मंडराते रहते हैं और लक्ष्य मिलते ही सीधे उस पर टकराकर विस्फोट कर देते हैं. कुछ ड्रोन मिसाइल या बम गिराते हैं, जबकि कुछ दुश्मन के इलेक्ट्रॉनिक सिस्टम को जाम करने के लिए साइबर या इलेक्ट्रॉनिक हमला भी कर सकते हैं.

दुनिया में कौन-कौन से ऐसे हथियार मौजूद हैं?

  • इजराइल का हारोप (Harop) ड्रोन इस तकनीक का एक प्रमुख उदाहरण माना जाता है. यह घंटों तक हवा में मंडराता रहता है और जैसे ही दुश्मन के रडार से सिग्नल मिलता है, खुद जाकर उस पर हमला कर देता है.
  • रूस की कंपनी कलाश्निकोव (Kalashnikov) द्वारा विकसित जाला KYB (ZALA KYB) भी इसी तरह का स्वायत्त हमला करने वाला ड्रोन माना जाता है.
  • अमेरिका और ऑस्ट्रेलिया ने मिलकर बोइंग MQ-28 घोस्ट बैट (Boeing MQ-28 Ghost Bat) नाम का लड़ाकू ड्रोन तैयार किया है, जो मानव चालित लड़ाकू विमानों के साथ उड़कर कई फैसले खुद ले सकता है.
  • तुर्की का कार्गु-2 (Kargu-2) ड्रोन तो पहले ही अंतरराष्ट्रीय बहस का कारण बन चुका है.
  • संयुक्त राष्ट्र की एक रिपोर्ट के अनुसार 2021 में लीबिया में पहली बार देखा गया था, जब किसी ऑटोनॉमस ड्रोन ने बिना इंसानी आदेश के लोगों पर हमला किया.

आखिर 30 से ज्यादा देश प्रतिबंध क्यों चाहते हैं?

इन हथियारों को लेकर सबसे बड़ी चिंता यह है कि आर्टिफिशियल इंटेलिजेंस भी गलतियां कर सकता है. अगर कोई एल्गोरिद्म किसी आम नागरिक को सैनिक समझ ले तो उसका परिणाम बेहद खतरनाक हो सकता है.

इसके अलावा साइबर हमले का खतरा भी बड़ा है. अगर कोई दुश्मन इन मशीनों को हैक कर ले तो वही हथियार पलटकर उसके अपने सैनिकों के खिलाफ इस्तेमाल हो सकते हैं. स्वॉर्म ड्रोन हमले की स्थिति में सैकड़ों मशीनों को एक साथ रोकना भी बेहद मुश्किल हो सकता है.

नैतिकता को लेकर सवाल इससे भी गहरे हैं. क्या किसी मशीन को यह अधिकार दिया जाना चाहिए कि वह तय करे कि किसकी जान लेनी है? अगर कोई गलती होती है तो जिम्मेदारी किसकी होगी? सॉफ्टवेयर बनाने वाले प्रोग्रामर की, सेना के अधिकारी की या उस कंपनी की जिसने ड्रोन तैयार किया?

इन्हीं चिंताओं के कारण ऑस्ट्रिया और न्यूज़ीलैंड सहित 30 से अधिक देश संयुक्त राष्ट्र में इन हथियारों पर पूरी तरह प्रतिबंध लगाने की मांग कर रहे हैं. लेकिन अमेरिका, रूस, चीन और इजराइल जैसे कई बड़े सैन्य देश इसका विरोध कर रहे हैं, क्योंकि उनका मानना है कि भविष्य के युद्ध में यह तकनीक रणनीतिक बढ़त दे सकती है.

.

Share me..

Leave a Reply

Your email address will not be published. Required fields are marked *