सोशल मीडिया प्लेटफॉर्म की जवाबदेही: फेक कंटेंट हटाना हो कानूनी अनिवार्यता

शीर्षक: सोशल मीडिया प्लेटफॉर्म की जवाबदेही: फेक कंटेंट हटाना हो कानूनी अनिवार्यता


प्रस्तावना

डिजिटल युग में सोशल मीडिया न केवल संवाद का प्रमुख माध्यम बन चुका है, बल्कि यह सूचना, विचार और मत निर्माण का भी सशक्त औज़ार बन गया है। लेकिन इसके प्रभाव में वृद्धि के साथ-साथ फेक कंटेंट (झूठी, भ्रामक या हानिकारक जानकारी) की समस्या भी गंभीर होती जा रही है। यह न केवल सामाजिक सौहार्द और लोकतांत्रिक प्रक्रियाओं को प्रभावित करता है, बल्कि व्यक्ति की प्रतिष्ठा, निजी जीवन और सार्वजनिक व्यवस्था के लिए भी खतरा बन चुका है। ऐसे में सोशल मीडिया प्लेटफॉर्म की जिम्मेदारी तय करना और फेक कंटेंट को समयबद्ध तरीके से हटाना अनिवार्य बनाना समय की मांग है।


सोशल मीडिया पर फेक कंटेंट की चुनौती

  1. सूचना की तीव्र गति: एक फेक पोस्ट लाखों लोगों तक कुछ ही मिनटों में पहुँच जाती है, जिससे अफवाह, नफरत, डर या सामाजिक तनाव फैल सकता है।
  2. बॉट्स और फर्जी अकाउंट्स: कई फेक प्रोफाइल स्वचालित बॉट्स द्वारा चलाए जाते हैं जो फेक न्यूज़ या दुष्प्रचार को व्यापक स्तर पर फैलाते हैं।
  3. राजनीतिक और धार्मिक ध्रुवीकरण: चुनावों के दौरान या संवेदनशील मुद्दों पर फेक कंटेंट का इस्तेमाल करके जनमत को प्रभावित करने का प्रयास किया जाता है।
  4. मानहानि और साइबर बुलिंग: व्यक्तिगत स्तर पर भी फेक कंटेंट किसी की छवि को धूमिल कर सकता है।

मौजूदा कानूनी ढांचा और उसकी सीमाएँ

भारत में फेक कंटेंट से निपटने के लिए कुछ मौजूदा प्रावधान हैं, जैसे—

  • आईटी अधिनियम, 2000 की धारा 69A: सरकार इंटरनेट से आपत्तिजनक सामग्री हटाने का आदेश दे सकती है।
  • आईटी (मध्यवर्ती दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021: सोशल मीडिया प्लेटफॉर्म को शिकायत अधिकारी नियुक्त करना और शिकायत मिलने पर 72 घंटे के भीतर कार्रवाई करना अनिवार्य किया गया है।
  • IPC की विभिन्न धाराएं (जैसे 153A, 295A, 505): धार्मिक उन्माद या अफवाह फैलाने पर कार्रवाई का प्रावधान है।

लेकिन – ये कानून अक्सर क्रियान्वयन और प्लेटफॉर्म की सहयोगिता के अभाव में प्रभावहीन साबित होते हैं।


समाधान: सोशल मीडिया की कानूनी जिम्मेदारी तय करना क्यों जरूरी है?

  1. उत्तरदायित्व आधारित विनियमन (Accountability Framework): सोशल मीडिया कंपनियों को यह कानूनी रूप से बाध्य किया जाए कि वे फेक कंटेंट के स्रोत की पहचान करें और उसे समयबद्ध तरीके से हटाएँ।
  2. “Notice and Takedown” की समय सीमा कम हो: वर्तमान 72 घंटे की समय-सीमा को संवेदनशील मामलों में 24 घंटे या उससे भी कम किया जाना चाहिए।
  3. ऑटोमैटिक मॉडरेशन सिस्टम: प्लेटफॉर्म्स को आर्टिफिशियल इंटेलिजेंस आधारित मॉडरेशन टूल्स लागू करने के लिए बाध्य किया जाए ताकि फेक कंटेंट का स्वतः पता चल सके।
  4. ग्रेडेड जुर्माना और दंड: यदि कोई सोशल मीडिया प्लेटफॉर्म शिकायत मिलने के बावजूद समय पर कार्रवाई नहीं करता, तो उस पर आर्थिक जुर्माना या प्रतिबंधात्मक आदेश लगाया जा सकता है।
  5. यूज़र वेरिफिकेशन अनिवार्य हो: फेक प्रोफाइल और बॉट्स को नियंत्रित करने के लिए मोबाइल नंबर अथवा आधार जैसे वैध पहचान पत्र से यूज़र सत्यापन की प्रक्रिया अपनाई जाए।
  6. स्थायी शिकायत प्राधिकरण की स्थापना: एक स्वतंत्र डिजिटल शिकायत निवारण प्राधिकरण (Digital Grievance Redressal Authority) की स्थापना की जानी चाहिए, जो यूज़र्स की शिकायतों पर निर्णय दे सके।

न्यायिक हस्तक्षेप और दिशा-निर्देश

भारत के उच्च न्यायालयों और सुप्रीम कोर्ट ने कई बार सोशल मीडिया पर कंटेंट मॉडरेशन को लेकर सरकार को दिशा-निर्देश जारी करने की सलाह दी है। जैसे—

  • श्रीनिवास कोडाली बनाम भारत सरकार (2022) में सुप्रीम कोर्ट ने कहा कि अभिव्यक्ति की स्वतंत्रता के नाम पर समाज में नफरत फैलाने की इजाज़त नहीं दी जा सकती।
  • तेलगू फिल्म अभिनेता केस (2023) में कोर्ट ने सोशल मीडिया कंपनियों से फेक क्लिप हटाने और मूल स्रोत साझा करने को कहा।

निष्कर्ष

सोशल मीडिया एक शक्तिशाली मंच है, लेकिन शक्ति के साथ ज़िम्मेदारी भी जुड़ी होती है। यदि इस माध्यम को खुली छूट दी जाती रही, तो यह लोकतंत्र की नींव और सामाजिक एकता को कमजोर कर सकता है। इसलिए यह अत्यंत आवश्यक है कि फेक कंटेंट हटाना सिर्फ नैतिक जिम्मेदारी नहीं, बल्कि कानूनी अनिवार्यता हो। इसके लिए मजबूत कानून, सक्रिय क्रियान्वयन और तकनीकी समाधान तीनों की एकसाथ आवश्यकता है। तभी सोशल मीडिया एक सुरक्षित, विश्वसनीय और उत्तरदायी मंच बन पाएगा।