शीर्षक: सोशल मीडिया प्लेटफॉर्म की जवाबदेही: फेक कंटेंट हटाना हो कानूनी अनिवार्यता
प्रस्तावना
डिजिटल युग में सोशल मीडिया न केवल संवाद का प्रमुख माध्यम बन चुका है, बल्कि यह सूचना, विचार और मत निर्माण का भी सशक्त औज़ार बन गया है। लेकिन इसके प्रभाव में वृद्धि के साथ-साथ फेक कंटेंट (झूठी, भ्रामक या हानिकारक जानकारी) की समस्या भी गंभीर होती जा रही है। यह न केवल सामाजिक सौहार्द और लोकतांत्रिक प्रक्रियाओं को प्रभावित करता है, बल्कि व्यक्ति की प्रतिष्ठा, निजी जीवन और सार्वजनिक व्यवस्था के लिए भी खतरा बन चुका है। ऐसे में सोशल मीडिया प्लेटफॉर्म की जिम्मेदारी तय करना और फेक कंटेंट को समयबद्ध तरीके से हटाना अनिवार्य बनाना समय की मांग है।
सोशल मीडिया पर फेक कंटेंट की चुनौती
- सूचना की तीव्र गति: एक फेक पोस्ट लाखों लोगों तक कुछ ही मिनटों में पहुँच जाती है, जिससे अफवाह, नफरत, डर या सामाजिक तनाव फैल सकता है।
- बॉट्स और फर्जी अकाउंट्स: कई फेक प्रोफाइल स्वचालित बॉट्स द्वारा चलाए जाते हैं जो फेक न्यूज़ या दुष्प्रचार को व्यापक स्तर पर फैलाते हैं।
- राजनीतिक और धार्मिक ध्रुवीकरण: चुनावों के दौरान या संवेदनशील मुद्दों पर फेक कंटेंट का इस्तेमाल करके जनमत को प्रभावित करने का प्रयास किया जाता है।
- मानहानि और साइबर बुलिंग: व्यक्तिगत स्तर पर भी फेक कंटेंट किसी की छवि को धूमिल कर सकता है।
मौजूदा कानूनी ढांचा और उसकी सीमाएँ
भारत में फेक कंटेंट से निपटने के लिए कुछ मौजूदा प्रावधान हैं, जैसे—
- आईटी अधिनियम, 2000 की धारा 69A: सरकार इंटरनेट से आपत्तिजनक सामग्री हटाने का आदेश दे सकती है।
- आईटी (मध्यवर्ती दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021: सोशल मीडिया प्लेटफॉर्म को शिकायत अधिकारी नियुक्त करना और शिकायत मिलने पर 72 घंटे के भीतर कार्रवाई करना अनिवार्य किया गया है।
- IPC की विभिन्न धाराएं (जैसे 153A, 295A, 505): धार्मिक उन्माद या अफवाह फैलाने पर कार्रवाई का प्रावधान है।
लेकिन – ये कानून अक्सर क्रियान्वयन और प्लेटफॉर्म की सहयोगिता के अभाव में प्रभावहीन साबित होते हैं।
समाधान: सोशल मीडिया की कानूनी जिम्मेदारी तय करना क्यों जरूरी है?
- उत्तरदायित्व आधारित विनियमन (Accountability Framework): सोशल मीडिया कंपनियों को यह कानूनी रूप से बाध्य किया जाए कि वे फेक कंटेंट के स्रोत की पहचान करें और उसे समयबद्ध तरीके से हटाएँ।
- “Notice and Takedown” की समय सीमा कम हो: वर्तमान 72 घंटे की समय-सीमा को संवेदनशील मामलों में 24 घंटे या उससे भी कम किया जाना चाहिए।
- ऑटोमैटिक मॉडरेशन सिस्टम: प्लेटफॉर्म्स को आर्टिफिशियल इंटेलिजेंस आधारित मॉडरेशन टूल्स लागू करने के लिए बाध्य किया जाए ताकि फेक कंटेंट का स्वतः पता चल सके।
- ग्रेडेड जुर्माना और दंड: यदि कोई सोशल मीडिया प्लेटफॉर्म शिकायत मिलने के बावजूद समय पर कार्रवाई नहीं करता, तो उस पर आर्थिक जुर्माना या प्रतिबंधात्मक आदेश लगाया जा सकता है।
- यूज़र वेरिफिकेशन अनिवार्य हो: फेक प्रोफाइल और बॉट्स को नियंत्रित करने के लिए मोबाइल नंबर अथवा आधार जैसे वैध पहचान पत्र से यूज़र सत्यापन की प्रक्रिया अपनाई जाए।
- स्थायी शिकायत प्राधिकरण की स्थापना: एक स्वतंत्र डिजिटल शिकायत निवारण प्राधिकरण (Digital Grievance Redressal Authority) की स्थापना की जानी चाहिए, जो यूज़र्स की शिकायतों पर निर्णय दे सके।
न्यायिक हस्तक्षेप और दिशा-निर्देश
भारत के उच्च न्यायालयों और सुप्रीम कोर्ट ने कई बार सोशल मीडिया पर कंटेंट मॉडरेशन को लेकर सरकार को दिशा-निर्देश जारी करने की सलाह दी है। जैसे—
- श्रीनिवास कोडाली बनाम भारत सरकार (2022) में सुप्रीम कोर्ट ने कहा कि अभिव्यक्ति की स्वतंत्रता के नाम पर समाज में नफरत फैलाने की इजाज़त नहीं दी जा सकती।
- तेलगू फिल्म अभिनेता केस (2023) में कोर्ट ने सोशल मीडिया कंपनियों से फेक क्लिप हटाने और मूल स्रोत साझा करने को कहा।
निष्कर्ष
सोशल मीडिया एक शक्तिशाली मंच है, लेकिन शक्ति के साथ ज़िम्मेदारी भी जुड़ी होती है। यदि इस माध्यम को खुली छूट दी जाती रही, तो यह लोकतंत्र की नींव और सामाजिक एकता को कमजोर कर सकता है। इसलिए यह अत्यंत आवश्यक है कि फेक कंटेंट हटाना सिर्फ नैतिक जिम्मेदारी नहीं, बल्कि कानूनी अनिवार्यता हो। इसके लिए मजबूत कानून, सक्रिय क्रियान्वयन और तकनीकी समाधान तीनों की एकसाथ आवश्यकता है। तभी सोशल मीडिया एक सुरक्षित, विश्वसनीय और उत्तरदायी मंच बन पाएगा।