डीपफेक और अभिव्यक्ति की स्वतंत्रता: कानूनी संतुलन की चुनौती

डीपफेक और अभिव्यक्ति की स्वतंत्रता: कानूनी संतुलन की चुनौती

भूमिका
तकनीक के विकास ने मनुष्य को अनेक सुविधाएं प्रदान की हैं, लेकिन इसके साथ ही कई जटिल नैतिक और कानूनी प्रश्न भी उत्पन्न हुए हैं। “डीपफेक” तकनीक—जो आर्टिफिशियल इंटेलिजेंस (AI) और मशीन लर्निंग के माध्यम से किसी व्यक्ति की छवि, आवाज़ या वीडियो को नकली रूप से निर्मित कर उसे वास्तविक जैसा प्रस्तुत करती है—एक ऐसा ही नवाचार है।
जहां एक ओर यह तकनीक अभिव्यक्ति की नई संभावनाएं खोलती है, वहीं दूसरी ओर यह व्यक्ति की गोपनीयता, प्रतिष्ठा, और आत्म-सम्मान पर गंभीर खतरा भी बन चुकी है। इस संदर्भ में यह प्रश्न उठता है—क्या हमारे मौलिक अधिकारों, विशेषकर अभिव्यक्ति की स्वतंत्रता और निजता के अधिकार, के बीच संतुलन बना है? और क्या कानून इस तकनीक की चुनौतियों से निपटने को तैयार है?


डीपफेक क्या है?
डीपफेक (Deepfake) एक तकनीक है जिसमें किसी व्यक्ति के वीडियो, ऑडियो या इमेज को कृत्रिम रूप से इस प्रकार बदल दिया जाता है कि वह वास्तविक प्रतीत हो।
यह मुख्य रूप से GAN (Generative Adversarial Networks) के माध्यम से निर्मित होता है, और इसका उपयोग मनोरंजन, विज्ञापन, शिक्षा और राजनीतिक प्रचार तक में देखा गया है।


डीपफेक के खतरे

  1. छवि और प्रतिष्ठा को हानि – किसी महिला का अश्लील डीपफेक वीडियो बनाना या किसी राजनेता की छवि को बदनाम करना।
  2. राजनीतिक दुष्प्रचार – चुनावों के दौरान विरोधियों को गलत तरीके से चित्रित करना।
  3. सूचना का दुरुपयोग और भ्रम फैलाना – झूठी खबरें और अफवाहें फैलाना।
  4. ब्लैकमेलिंग और मानसिक उत्पीड़न – खासकर महिलाओं और किशोरों के प्रति।
  5. फर्जी पहचान (Impersonation) – किसी व्यक्ति की आवाज़ और चेहरे का इस्तेमाल कर धोखाधड़ी करना।

अभिव्यक्ति की स्वतंत्रता बनाम डीपफेक का खतरा

अनुच्छेद 19(1)(a) – भारतीय संविधान
भारत में हर नागरिक को अभिव्यक्ति की स्वतंत्रता का अधिकार है, लेकिन यह पूर्ण नहीं है। अनुच्छेद 19(2) के तहत इस स्वतंत्रता पर समाजहित, शिष्टाचार, नैतिकता, राज्य की सुरक्षा, मानहानि और न्यायालय की अवमानना जैसे कारणों से प्रतिबंध लगाए जा सकते हैं।

डीपफेक तकनीक जब रचनात्मक और व्यंग्यात्मक उद्देश्यों के लिए प्रयोग होती है (जैसे फिल्मों या कला में), तब वह अभिव्यक्ति की स्वतंत्रता के तहत आ सकती है। लेकिन जब इसका प्रयोग किसी की छवि बिगाड़ने, धोखा देने या अश्लील सामग्री बनाने के लिए होता है, तब यह अभिव्यक्ति की सीमा का उल्लंघन है।


भारत में वर्तमान कानूनी स्थिति

  1. सूचना प्रौद्योगिकी अधिनियम, 2000 (IT Act)
    • धारा 66D – धोखाधड़ी के उद्देश्य से पहचान की चोरी।
    • धारा 66E – निजता का उल्लंघन कर व्यक्तिगत जानकारी/छवि का दुरुपयोग।
    • धारा 67 और 67A – अश्लील या यौन स्पष्ट सामग्री का इलेक्ट्रॉनिक रूप में संप्रेषण।
  2. भारतीय दंड संहिता (अब भारतीय न्याय संहिता, 2023)
    • धारा 354C – महिलाओं की छवि का दुरुपयोग (Voyeurism)।
    • धारा 499-500 – मानहानि।
    • धारा 468-469 – जालसाजी और दस्तावेज़ों में धोखाधड़ी।
  3. आईटी नियम, 2021 (Information Technology Rules, 2021)
    • डिजिटल प्लेटफार्मों पर फेक न्यूज़ और गलत सूचना रोकने की जिम्मेदारी।
    • सोशल मीडिया कंपनियों को डीपफेक वीडियो हटाने के निर्देश देने का प्रावधान।

कानूनी कमियाँ और चुनौतियाँ

  1. डीपफेक की स्पष्ट परिभाषा का अभाव – किसी भी भारतीय कानून में अभी तक “डीपफेक” शब्द को परिभाषित नहीं किया गया है।
  2. तकनीकी साक्ष्य का अभाव – डीपफेक को साबित करना तकनीकी दृष्टि से कठिन है।
  3. पीड़ित के पास त्वरित उपाय नहीं – वीडियो वायरल होने के बाद कानूनी कार्यवाही देर से होती है।
  4. प्लेटफॉर्म की ज़िम्मेदारी सीमित – सोशल मीडिया कंपनियां अपनी सीमित जवाबदेही का हवाला देती हैं।

विदेशी अनुभव

  • यू.एस.ए. में कुछ राज्यों (जैसे टेक्सास, वर्जीनिया) ने डीपफेक के विरुद्ध स्पष्ट कानून बनाए हैं, विशेषकर चुनावी हस्तक्षेप और अश्लील डीपफेक के मामलों में।
  • चीन ने 2022 में एक सख्त कानून पारित किया है जिसमें किसी भी डिजिटल सिंथेसिस सामग्री को “स्पष्ट” रूप से चिह्नित करना अनिवार्य है।
  • यूरोपियन यूनियन AI और Deepfake नियमन हेतु व्यापक Digital Services Act (DSA) और AI Act पर कार्य कर रहा है।

क्या भारत को अलग कानून की आवश्यकता है?

हाँ, क्योंकि:

  • तकनीक तेजी से आगे बढ़ रही है और उसके दुरुपयोग की गति उससे भी तेज़ है।
  • मौजूदा कानूनों में डीपफेक को लेकर स्पष्टता और प्रभावशीलता की कमी है।
  • निजता का अधिकार (Puttaswamy बनाम भारत, 2017) अब मौलिक अधिकार बन चुका है, और डीपफेक इसका सीधा उल्लंघन करता है।

समाधान और सुझाव

  1. डीपफेक-निरोधक विशेष कानून बनाया जाए, जिसमें अपराध की परिभाषा, दंड और पीड़ित के अधिकारों का स्पष्ट विवरण हो।
  2. AI और Deepfake ट्रैकिंग हेतु सरकारी निगरानी तंत्र (जैसे CERT-In) को सशक्त किया जाए।
  3. सोशल मीडिया प्लेटफॉर्म पर दायित्व तय किया जाए – फेक कंटेंट को तेजी से हटाना अनिवार्य हो।
  4. डिजिटल साक्षरता अभियान – विशेषकर स्कूली शिक्षा में तकनीक के नैतिक प्रयोग की शिक्षा दी जाए।
  5. तीव्र न्यायिक उपाय – Fast-track courts या विशेष साइबर न्यायाधिकरण की स्थापना।

निष्कर्ष

डीपफेक तकनीक ने जहां रचनात्मक अभिव्यक्ति को नया आयाम दिया है, वहीं यह निजता, प्रतिष्ठा और सामाजिक स्थिरता पर भी गंभीर संकट है। अतः अभिव्यक्ति की स्वतंत्रता और निजता के अधिकार के बीच संवेदनशील, सटीक और संतुलित विधिक दृष्टिकोण की आवश्यकता है। कानून को न केवल दंडात्मक होना चाहिए, बल्कि वह समाज को जागरूक और सुरक्षित भी बनाए—यही भविष्य की डिजिटल नैतिकता और न्याय का आधार बनेगा।