डीपफेक, आर्टिफिशियल इंटेलिजेंस और मानवाधिकार: जस्टिस पी.एस. नरसिम्हा की चेतावनी और बदलते कानून की चुनौती
तकनीक ने मानव जीवन को जितना सरल और सुविधाजनक बनाया है, उतनी ही तेजी से उसने नए जोखिम और जटिल चुनौतियां भी पैदा की हैं। विशेष रूप से आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते प्रभाव के बीच “डीपफेक” (Deepfake) जैसी तकनीक ने न केवल डिजिटल दुनिया, बल्कि सामाजिक और कानूनी ढांचे को भी चुनौती दी है। हाल ही में P. S. Narasimha ने एक महत्वपूर्ण कार्यक्रम में इस विषय पर गंभीर चिंता जताते हुए कहा कि डीपफेक तकनीक का सबसे ज्यादा शिकार महिलाएं बन रही हैं और मौजूदा कानूनी व्यवस्था इस समस्या से निपटने में देर कर रही है।
उनकी यह टिप्पणी केवल एक तकनीकी मुद्दे पर चिंता नहीं है, बल्कि यह मानवाधिकारों, निजता और न्यायिक प्रक्रिया के भविष्य को लेकर एक गहरी चेतावनी भी है।
डीपफेक क्या है और क्यों खतरनाक है?
डीपफेक एक ऐसी तकनीक है जिसमें AI की मदद से किसी व्यक्ति की नकली तस्वीरें, वीडियो या ऑडियो तैयार किए जाते हैं, जो वास्तविक जैसे लगते हैं।
इस तकनीक का दुरुपयोग कई रूपों में हो रहा है:
- बिना सहमति के महिलाओं की नकली अश्लील तस्वीरें बनाना,
- राजनीतिक या सामाजिक व्यक्तियों के फर्जी वीडियो तैयार करना,
- और व्यक्तिगत बदनामी या ब्लैकमेलिंग के लिए इसका उपयोग करना।
P. S. Narasimha ने विशेष रूप से इस बात पर जोर दिया कि यह तकनीक “जेंडर-बेस्ड हिंसा” को बढ़ावा देती है और महिलाओं को गहरा मानसिक आघात पहुंचाती है।
“नुकसान पहले, कार्रवाई बाद में” – कानूनी ढांचे की कमी
जस्टिस नरसिम्हा की सबसे महत्वपूर्ण टिप्पणी यह थी कि:
“जब तक डीपफेक सामग्री को हटाने की कार्रवाई होती है, तब तक नुकसान हो चुका होता है।”
यह समस्या डिजिटल युग की एक बड़ी विडंबना को उजागर करती है:
- इंटरनेट पर सामग्री तेजी से फैलती है,
- लेकिन उसे हटाने की प्रक्रिया धीमी और जटिल होती है,
- और इस बीच पीड़ित को सामाजिक और मानसिक नुकसान झेलना पड़ता है।
यह स्थिति मौजूदा कानूनों की सीमाओं को स्पष्ट करती है।
कार्यक्रम और संदर्भ: AI के दौर में मानवाधिकार
यह टिप्पणी Commonwealth Lawyers Association द्वारा आयोजित “सोली सोराबजी मेमोरियल लेक्चर” के दौरान की गई, जिसका विषय था:
“आर्टिफिशियल इंटेलिजेंस के साम्राज्य में मानवाधिकार”
इस कार्यक्रम में कई प्रमुख विधि विशेषज्ञ भी उपस्थित थे, जिनमें:
- P. B. Varale
- Vikas Singh
- Jaideep Gupta
शामिल थे।
सोली सोराबजी का उल्लेख: संवैधानिक नैतिकता की विरासत
अपने संबोधन की शुरुआत में जस्टिस नरसिम्हा ने Soli Sorabjee को याद करते हुए कहा कि:
- उन्होंने कानून को केवल पेशा नहीं, बल्कि सामाजिक जिम्मेदारी के रूप में देखा,
- उनकी वकालत में संतुलन और संयम था,
- और वे नागरिक स्वतंत्रता के मजबूत रक्षक थे।
यह संदर्भ इस बात को दर्शाता है कि आज की तकनीकी चुनौतियों के बीच भी संवैधानिक मूल्यों को बनाए रखना कितना जरूरी है।
AI: एक “अदृश्य शक्ति” का उदय
P. S. Narasimha ने AI को एक “कम दिखाई देने वाली लेकिन अत्यधिक प्रभावशाली शक्ति” बताया।
उन्होंने कहा कि:
- AI राष्ट्रीय सीमाओं से परे काम करता है,
- यह पारंपरिक सत्ता संरचनाओं को बदल रहा है,
- और इसका प्रभाव समाज के हर क्षेत्र में दिखाई दे रहा है।
यह विचार इस ओर इशारा करता है कि AI केवल तकनीकी बदलाव नहीं, बल्कि एक सामाजिक परिवर्तन है।
“Informed Consent” का उल्लंघन
AI के उपयोग से एक और गंभीर समस्या सामने आती है—“Informed Consent” यानी सूचित सहमति।
डीपफेक के मामले में:
- व्यक्ति की अनुमति के बिना उसकी छवि या पहचान का उपयोग किया जाता है,
- और यह उसकी निजता (Privacy) का उल्लंघन है।
जस्टिस नरसिम्हा ने इस पर जोर देते हुए कहा कि यह मानवाधिकारों के लिए एक गंभीर खतरा है।
कल्याणकारी योजनाओं में AI: “Exclusion” का खतरा
AI के उपयोग को लेकर जस्टिस नरसिम्हा ने एक और महत्वपूर्ण चिंता व्यक्त की—सरकारी योजनाओं में इसके उपयोग से कुछ लोगों के “बाहर रह जाने” का खतरा।
उन्होंने कहा कि:
- AI आधारित सिस्टम लाभार्थियों की पहचान और वितरण में उपयोग हो रहे हैं,
- लेकिन तकनीकी खामियों या डेटा की कमी के कारण कुछ पात्र लोग वंचित रह सकते हैं।
यह समस्या विशेष रूप से गरीब और हाशिए पर रहने वाले वर्गों के लिए गंभीर हो सकती है।
“Due Process” का विस्तार: एल्गोरिद्म तक
P. S. Narasimha ने सुझाव दिया कि:
“उचित प्रक्रिया (Due Process) की गारंटी को एल्गोरिद्म-आधारित प्रक्रियाओं तक भी बढ़ाया जाना चाहिए।”
इसका अर्थ है:
- AI द्वारा लिए गए निर्णयों को भी पारदर्शी और न्यायसंगत होना चाहिए,
- और प्रभावित व्यक्ति को चुनौती देने का अधिकार मिलना चाहिए।
यह एक नया और उभरता हुआ कानूनी सिद्धांत है।
निजता की नई परिभाषा
निजता (Privacy) के बारे में जस्टिस नरसिम्हा ने कहा कि:
- अब इसे केवल “जानकारी छिपाने” तक सीमित नहीं समझा जा सकता,
- बल्कि यह “व्यक्तिगत डेटा पर नियंत्रण” से जुड़ा हुआ है।
उन्होंने Digital Personal Data Protection Act (DPDP Act) का उल्लेख करते हुए कहा कि:
- यह कानून कुछ हद तक सुरक्षा प्रदान करता है,
- लेकिन “inference” जैसी जटिल समस्याओं से पूरी तरह नहीं निपट पाता।
महिलाओं पर विशेष प्रभाव
डीपफेक तकनीक का सबसे गंभीर प्रभाव महिलाओं पर पड़ता है:
- उनकी छवि को बिना अनुमति के बदला जाता है,
- उन्हें ऑनलाइन उत्पीड़न का सामना करना पड़ता है,
- और इससे उनका मानसिक स्वास्थ्य प्रभावित होता है।
यह स्थिति डिजिटल स्पेस में लैंगिक असमानता को और बढ़ाती है।
समाधान की दिशा: क्या किया जाना चाहिए?
इस चुनौती से निपटने के लिए कई स्तरों पर कार्रवाई आवश्यक है:
1. त्वरित कानूनी प्रतिक्रिया
डीपफेक सामग्री को तुरंत हटाने के लिए तेज प्रक्रिया विकसित करनी होगी।
2. सख्त दंड
ऐसे अपराधों के लिए कड़े दंड का प्रावधान होना चाहिए।
3. तकनीकी समाधान
AI आधारित पहचान प्रणाली विकसित की जानी चाहिए, जो डीपफेक को जल्दी पहचान सके।
4. जागरूकता
लोगों को इस तकनीक के दुरुपयोग के बारे में जागरूक करना जरूरी है।
निष्कर्ष
जस्टिस P. S. Narasimha की यह टिप्पणी केवल एक चेतावनी नहीं, बल्कि एक आह्वान है—कानून, समाज और तकनीक के बीच संतुलन बनाने का।
आज जब AI हमारे जीवन का अभिन्न हिस्सा बन चुका है, तब यह आवश्यक हो जाता है कि:
- हम इसके लाभों का उपयोग करें,
- लेकिन इसके खतरों से भी सतर्क रहें,
- और मानवाधिकारों की रक्षा को सर्वोच्च प्राथमिकता दें।
अंततः, तकनीक का उद्देश्य मानव जीवन को बेहतर बनाना है, न कि उसे असुरक्षित करना। यदि हम इस सिद्धांत को ध्यान में रखकर आगे बढ़ें, तो AI और मानवाधिकारों के बीच संतुलन संभव है—अन्यथा यह असंतुलन समाज के लिए गंभीर परिणाम ला सकता है।