शीर्षक: एआई आधारित हथियारों और सुरक्षा प्रणाली का नियमन: तकनीकी प्रगति बनाम मानवता की सुरक्षा
भूमिका:
आर्टिफिशियल इंटेलिजेंस (AI) अब केवल सॉफ्टवेयर, चैटबॉट या वाणिज्यिक अनुप्रयोगों तक सीमित नहीं रह गया है। यह तेजी से हथियारों और राष्ट्रीय सुरक्षा प्रणाली में एक निर्णायक भूमिका निभा रहा है।
ड्रोन, मिसाइल, निगरानी प्रणाली, ऑटोमेटेड बॉर्डर डिफेंस और साइबर-सिक्योरिटी सिस्टम में AI की भागीदारी ने युद्ध और सुरक्षा का चेहरा बदल दिया है। लेकिन इस तकनीकी विकास ने एक गंभीर चिंता को जन्म दिया है:
“क्या एआई आधारित हथियार और सुरक्षा प्रणाली मानवता के लिए खतरा बन सकते हैं?”
इस लेख में हम इन प्रणालियों के नियमन की आवश्यकता, मौजूदा प्रयासों, और भविष्य की कानूनी दिशाओं पर चर्चा करेंगे।
1. एआई आधारित हथियार और सुरक्षा प्रणालियाँ क्या हैं?
AI आधारित हथियार और सुरक्षा प्रणालियाँ वे तकनीकें हैं जो निर्णय लेने, लक्ष्य पहचानने, प्रतिक्रिया देने या हमला करने की क्षमता खुद से रखती हैं, अर्थात् मानव हस्तक्षेप के बिना काम कर सकती हैं।
उदाहरण:
- Lethal Autonomous Weapon Systems (LAWS) – जैसे स्वायत्त ड्रोन, टैंक, रोबोटिक स्नाइपर।
- Surveillance AI – फेसियल रिकग्निशन, जनसमूह विश्लेषण, आंदोलन पूर्वानुमान।
- AI साइबर डिफेंस सिस्टम – साइबर हमले की स्वतः पहचान और प्रतिक्रिया।
- Predictive Policing Tools – संभावित अपराधियों या घटनाओं की पहचान।
2. इन प्रणालियों से उत्पन्न खतरे
(A) मानव नियंत्रण की समाप्ति (Loss of Human Control):
जब हथियार अपने निर्णय खुद लेने लगें, तो गलत पहचान या निष्पक्षता की कमी से निर्दोषों की हत्या की आशंका बढ़ जाती है।
(B) जवाबदेही का संकट (Accountability Gap):
अगर कोई AI सिस्टम गलती करता है, तो उत्तरदायित्व तय करना कठिन हो जाता है — सैनिक, प्रोग्रामर, सरकार या निर्माता?
(C) युद्ध की नैतिकता पर आघात:
AI से संचालित युद्धक्षेत्र में करुणा, नैतिक निर्णय और विवेक जैसी मानवीय विशेषताएं समाप्त हो जाती हैं।
(D) नागरिकों की निजता का उल्लंघन:
सुरक्षा के नाम पर AI आधारित निगरानी प्रणाली नागरिक स्वतंत्रता को कुचल सकती है।
3. क्या नियमन की कोई व्यवस्था है?
अंतरराष्ट्रीय स्तर पर प्रयास:
- United Nations Convention on Certain Conventional Weapons (CCW):
इस मंच पर LAWS (Lethal Autonomous Weapon Systems) को प्रतिबंधित करने पर चर्चा हो रही है, लेकिन अब तक कोई बाध्यकारी संधि नहीं बनी है। - Stop Killer Robots Campaign:
यह एक वैश्विक सिविल सोसायटी आंदोलन है जो पूरी तरह से स्वायत्त हथियारों पर प्रतिबंध की मांग कर रहा है। - EU AI Act (Draft):
यूरोपीय संघ ने ऐसे हथियारों को “Unacceptable Risk AI” की श्रेणी में डालने का प्रस्ताव दिया है।
भारत की स्थिति:
भारत में फिलहाल एआई हथियारों या निगरानी प्रणालियों के लिए कोई समर्पित कानून या नीति नहीं है। रक्षा अनुसंधान एवं विकास संगठन (DRDO) द्वारा विभिन्न AI सिस्टम विकसित किए जा रहे हैं, लेकिन उनका नियमन या पारदर्शिता स्पष्ट नहीं है।
हालांकि, भारत ने UN में Autonomous Weapons पर नियमन की चर्चा का समर्थन किया है, लेकिन अपने रक्षा हितों को देखते हुए किसी प्रतिबंध का खुलकर समर्थन नहीं किया।
4. नियमन की कानूनी और नीति आवश्यकताएं
(A) “Human-in-the-Loop” सिद्धांत को अनिवार्य करना:
कोई भी हथियार अंतिम निर्णय लेने से पहले मानव नियंत्रण से गुजरे।
(B) AI Ethics और Humanitarian Law को जोड़ना:
AI हथियारों को Geneva Convention, मानवाधिकार कानूनों और अंतरराष्ट्रीय मानवीय कानूनों के अधीन लाना आवश्यक है।
(C) पारदर्शिता और जवाबदेही:
- सभी सैन्य AI प्रणालियों की समीक्षा और निरीक्षण प्रणाली होनी चाहिए।
- डिजिटल ब्लैक बॉक्स की तरह, AI निर्णयों का रिकॉर्ड सहेजने की कानूनी अनिवार्यता हो।
(D) बहुपक्षीय संधि की आवश्यकता:
जैसे परमाणु हथियारों पर नियंत्रण हेतु NPT बना, उसी प्रकार AI हथियारों के लिए एक Global AI Disarmament Treaty की आवश्यकता है।
5. एआई सुरक्षा प्रणाली में नागरिक अधिकारों की रक्षा
सुरक्षा के नाम पर:
- जनता की निगरानी करना,
- राजनीतिक विरोध को दबाना,
- या सोशल स्कोरिंग जैसे प्रयोगों में AI का दुरुपयोग खतरनाक है।
इसलिए प्रत्येक लोकतांत्रिक देश को निम्नलिखित करना चाहिए:
- Data Protection Law लागू करना
- सुरक्षा प्रणाली में नागरिक स्वतंत्रता की रक्षा के लिए स्वतंत्र प्राधिकरण का गठन
- न्यायिक समीक्षा योग्य निगरानी तंत्र स्थापित करना
6. निष्कर्ष
AI आधारित हथियार और सुरक्षा प्रणालियाँ “टेक्नोलॉजिकल एडवांसमेंट” और “मानव अस्तित्व” के बीच संतुलन की सबसे बड़ी परीक्षा बन गई हैं।
यदि आज हम इन पर नियंत्रण नहीं करते, तो कल “स्वायत्त युद्ध” मानव समाज की सबसे बड़ी त्रासदी बन सकता है।
इसलिए हमें ऐसी नीति और कानून की आवश्यकता है जो यह सुनिश्चित करे कि:
- तकनीक सेवा करे, शासित न करे;
- सुरक्षा संविधान और मानवता के दायरे में रहे;
- और हर हथियार के पीछे एक ज़िम्मेदार इंसान हो।
प्रश्न विचारणीय है:
क्या हम एक ऐसे युग की ओर बढ़ रहे हैं जहां निर्णय युद्ध का नहीं, मशीन का होगा?
अगर हां, तो नियमन अब विकल्प नहीं, अनिवार्यता है।