शीर्षक:
“डीपफेक का बढ़ता खतरा: क्या समय आ गया है एक विशेष ‘डीपफेक-निरोधक कानून’ बनाने का?”
भूमिका:
विज्ञान और तकनीक की प्रगति ने जहां दुनिया को पहले से अधिक सक्षम और जुड़ा हुआ बनाया है, वहीं इससे उत्पन्न हुए खतरे भी उतने ही गंभीर और जटिल हो गए हैं। इन आधुनिक खतरों में सबसे चिंताजनक है “डीपफेक तकनीक” — ऐसी कृत्रिम बुद्धिमत्ता (AI) आधारित विधि जिसके माध्यम से किसी व्यक्ति के चेहरे, आवाज़ या शरीर की हूबहू नक़ल करके नकली वीडियो या ऑडियो तैयार किए जाते हैं। यह तकनीक अब केवल मनोरंजन या व्यंग्य तक सीमित नहीं रही, बल्कि चरित्र हत्या, राजनीतिक भ्रम, ब्लैकमेलिंग, यौन उत्पीड़न और चुनावी हस्तक्षेप का माध्यम बन चुकी है।
इस बढ़ते खतरे के बावजूद, भारत में डीपफेक को विशेष रूप से नियंत्रित करने वाला कोई पृथक कानून नहीं है। अतः यह समय की मांग है कि “डीपफेक-निरोधक विशेष कानून” बनाया जाए, जिसमें अपराध की स्पष्ट परिभाषा, सजा, पीड़ितों के अधिकार और जांच प्रक्रिया की रूपरेखा दी गई हो।
डीपफेक: क्या, कैसे और क्यों खतरनाक?
डीपफेक (“Deepfake”) शब्द Deep Learning + Fake से मिलकर बना है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का उपयोग कर किसी व्यक्ति के वीडियो, आवाज़ या फोटो को इस तरह मॉर्फ किया जाता है कि वह असली जैसा लगे। यह तकनीक निम्नलिखित तरीकों से खतरनाक साबित हो सकती है:
- यौन उत्पीड़न: महिलाओं की अश्लील डीपफेक वीडियो बनाकर उन्हें बदनाम या ब्लैकमेल करना।
- राजनीतिक दुष्प्रचार: नेताओं के झूठे बयानों या भाषणों का प्रसार कर जनता को भ्रमित करना।
- वित्तीय धोखाधड़ी: किसी CEO या अधिकारी की नकली आवाज़ या चेहरा बनाकर कर्मचारियों को निर्देश देना।
- सामाजिक विद्वेष: समुदायों के बीच नफरत फैलाने वाले फर्जी वीडियो वायरल करना।
वर्तमान कानूनी ढांचा: अपर्याप्त और बिखरा हुआ
वर्तमान में डीपफेक से संबंधित अपराधों को IPC, 1860 (जैसे धारा 469 – मानहानि; 500 – बदनामी), IT Act, 2000 (धारा 66C, 66E, 67A आदि) के तहत देखा जाता है, लेकिन:
- ये प्रावधान प्रत्यक्ष रूप से डीपफेक को लक्षित नहीं करते।
- अपराध की परिभाषा बहुत व्यापक या अस्पष्ट है।
- पीड़ितों के अधिकारों या तत्काल राहत की कोई स्पष्ट प्रक्रिया नहीं है।
- पुलिस व जांच एजेंसियों के पास तकनीकी समझ या संसाधन की कमी है।
डीपफेक-निरोधक विशेष कानून की आवश्यकता:
एक समर्पित कानून न केवल अपराध को स्पष्ट रूप से परिभाषित करेगा, बल्कि डिजिटल युग की जटिलताओं से निपटने के लिए एक समन्वित व्यवस्था भी प्रदान करेगा। ऐसा कानून निम्नलिखित पहलुओं को समाहित कर सकता है:
1. परिभाषा और दायरा
- डीपफेक की स्पष्ट परिभाषा – जैसे कि “किसी व्यक्ति की पहचान की कृत्रिम बुद्धिमत्ता द्वारा निर्मित नकली प्रस्तुति, जिसका उद्देश्य भ्रम फैलाना, धोखा देना या हानि पहुंचाना हो।”
- इसमें वीडियो, ऑडियो, स्टिल इमेज, अवतार, वर्चुअल रियलिटी आदि को शामिल किया जाए।
2. अपराध की श्रेणियाँ और दंड
- सामान्य अपराध: बिना सहमति डीपफेक निर्माण – 3 साल तक की सजा और जुर्माना।
- गंभीर अपराध: मानहानि, अश्लीलता, राजनीतिक/सांप्रदायिक दुष्प्रचार – 5 से 7 साल तक की सजा।
- आवर्ती अपराध या संगठित गिरोह के लिए – 10 साल तक की सजा और कड़ी जुर्माना।
3. पीड़ितों के अधिकार
- डीपफेक हटाने के लिए त्वरित शिकायत और ’24 घंटे के भीतर निष्कासन’ की व्यवस्था।
- पीड़िता की पहचान को गोपनीय रखने का अधिकार।
- मानसिक, सामाजिक और आर्थिक सहायता की व्यवस्था।
4. न्यायिक प्रक्रिया और जांच व्यवस्था
- डीपफेक मामलों के लिए विशेष साइबर न्यायालय की स्थापना।
- तकनीकी फॉरेंसिक विशेषज्ञों की नियुक्ति और प्रशिक्षण।
- सोशल मीडिया प्लेटफॉर्म्स को दायित्वपूर्ण साझेदार बनाना – नकली कंटेंट की पहचान, रिपोर्टिंग और हटाने की प्रक्रिया स्पष्ट करना।
अंतर्राष्ट्रीय उदाहरण:
- चीन ने 2022 में ‘डीप-सिंथेसिस तकनीक’ को लेकर सख्त कानून बनाया है।
- अमेरिका में कुछ राज्यों (जैसे टेक्सास, कैलिफोर्निया) में डीपफेक से जुड़ा विशेष कानून है, खासकर चुनाव और अश्लीलता से जुड़े मामलों में।
- यूरोपीय संघ के डिजिटल सर्विसेज एक्ट (DSA) में डीपफेक सामग्री की पारदर्शिता अनिवार्य की गई है।
निष्कर्ष:
डीपफेक तकनीक जहां एक ओर नवाचार और रचनात्मकता को नए आयाम देती है, वहीं दूसरी ओर यह एक भयानक डिजिटल हथियार भी बन गई है। भारत जैसे लोकतांत्रिक और विविधता-समृद्ध देश में इस तकनीक का दुरुपयोग सामाजिक ताने-बाने को बिखेर सकता है, इसलिए एक विशेष डीपफेक-निरोधक कानून अब विलंब नहीं, बल्कि अत्यावश्यक कदम बन चुका है। यह कानून न केवल पीड़ितों को न्याय दिलाएगा, बल्कि तकनीकी युग में नागरिकों की गरिमा, निजता और सुरक्षा को भी सुनिश्चित करेगा।