IndianLawNotes.com

ChatGPT जैसे AI टूल्स के उपयोग पर कलकत्ता हाईकोर्ट की सख़्त टिप्पणी: IndiaMART के कथित मनमाने बहिष्कार ने खड़े किए गंभीर संवैधानिक और विधिक प्रश्न,a

ChatGPT जैसे AI टूल्स के उपयोग पर कलकत्ता हाईकोर्ट की सख़्त टिप्पणी: IndiaMART के कथित मनमाने बहिष्कार ने खड़े किए गंभीर संवैधानिक और विधिक प्रश्न

भूमिका

        कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) आज शासन, व्यापार, न्याय, शिक्षा और प्रशासन के लगभग हर क्षेत्र में तेज़ी से प्रवेश कर चुकी है। निर्णय-निर्माण में AI आधारित टूल्स, विशेषकर ChatGPT जैसे जनरेटिव मॉडल्स, को समय बचाने और दक्षता बढ़ाने का साधन माना जा रहा है। किंतु इसी तकनीकी प्रगति के साथ-साथ पारदर्शिता, जवाबदेही और प्राकृतिक न्याय जैसे मौलिक विधिक सिद्धांतों पर गंभीर प्रश्न भी खड़े हो रहे हैं।

       इसी संदर्भ में कलकत्ता उच्च न्यायालय द्वारा हाल ही में की गई टिप्पणियाँ अत्यंत महत्वपूर्ण हैं, जहाँ अदालत ने ChatGPT जैसे AI टूल्स पर निर्भर होकर IndiaMART को कथित रूप से बाहर किए जाने (exclusion) के मामले में प्रथम दृष्टया (prima facie) गंभीर चिंता व्यक्त की। यद्यपि अंतरिम राहत देने से न्यायालय ने परहेज़ किया, परंतु उसके अवलोकन ने AI आधारित निर्णय-प्रणालियों की वैधानिक सीमाओं पर एक व्यापक बहस को जन्म दे दिया है।


मामले की पृष्ठभूमि

      IndiaMART, जो भारत का एक प्रमुख B2B डिजिटल मार्केटप्लेस है, ने न्यायालय का दरवाज़ा खटखटाते हुए यह आरोप लगाया कि उसे किसी प्रक्रिया या ठोस कारण के बिना, केवल AI-जनित आकलन के आधार पर बाहर कर दिया गया। याचिकाकर्ता का मुख्य तर्क यह था कि—

  • निर्णय ChatGPT जैसे AI टूल से प्राप्त जानकारी पर आधारित था
  • प्रयुक्त डेटा स्रोत अस्पष्ट (opaque) और अप्रमाणित थे
  • IndiaMART को सुनवाई का अवसर नहीं दिया गया
  • निर्णय लेने की प्रक्रिया मनमानी (arbitrary) थी

याचिका में यह भी कहा गया कि AI मॉडल्स न तो वैधानिक प्राधिकारी हैं और न ही उनके आउटपुट को अंतिम सत्य मानकर किसी संस्था को दंडित या बहिष्कृत किया जा सकता है।


कलकत्ता हाईकोर्ट की प्रमुख टिप्पणियाँ

न्यायालय ने अपने अवलोकनों में कहा कि मामला केवल IndiaMART तक सीमित नहीं है, बल्कि यह AI आधारित निर्णय-निर्माण की विश्वसनीयता और वैधानिकता से जुड़ा एक व्यापक प्रश्न है।

1. प्रथम दृष्टया मनमानी का मामला

अदालत ने स्पष्ट रूप से कहा कि उपलब्ध तथ्यों से prima facie यह प्रतीत होता है कि IndiaMART का बहिष्कार मनमाना हो सकता है, क्योंकि—

  • निर्णय का आधार स्पष्ट नहीं है
  • AI द्वारा प्रयुक्त डेटा और एल्गोरिदम सार्वजनिक नहीं किए गए
  • कोई कारण-युक्त आदेश (reasoned order) उपलब्ध नहीं है

2. AI आउटपुट को अंतिम सत्य नहीं माना जा सकता

न्यायालय ने यह रेखांकित किया कि ChatGPT जैसे टूल्स केवल सहायक साधन हो सकते हैं, न कि निर्णय का अंतिम आधार। AI मॉडल—

  • इंटरनेट पर उपलब्ध अपूर्ण या त्रुटिपूर्ण डेटा पर निर्भर होते हैं
  • “Hallucination” की समस्या से ग्रस्त हो सकते हैं
  • किसी व्यक्ति या संस्था को जवाबदेह नहीं ठहराया जा सकता

पारदर्शिता और प्राकृतिक न्याय का प्रश्न

भारतीय संविधान का अनुच्छेद 14 समानता और मनमानी के विरुद्ध सुरक्षा प्रदान करता है। वहीं, audi alteram partem यानी “दूसरे पक्ष को सुनने का अधिकार” प्राकृतिक न्याय का मूल सिद्धांत है।

न्यायालय ने संकेत दिया कि—

  • यदि कोई निर्णय AI आउटपुट पर आधारित है,
  • और प्रभावित पक्ष को यह भी न बताया जाए कि निर्णय कैसे लिया गया,
    तो यह प्राकृतिक न्याय का घोर उल्लंघन होगा।

AI का “ब्लैक बॉक्स” स्वरूप (जहाँ यह स्पष्ट नहीं होता कि निष्कर्ष कैसे निकला) न्यायिक समीक्षा के लिए भी गंभीर समस्या उत्पन्न करता है।


अंतरिम राहत से इनकार, लेकिन चेतावनी स्पष्ट

हालाँकि अदालत ने इस चरण पर अंतरिम राहत देने से इनकार किया, परंतु यह इनकार याचिका की कमजोरी के कारण नहीं था। न्यायालय ने संकेत दिया कि—

  • मामला गहन विचार और विस्तृत सुनवाई की माँग करता है
  • AI आधारित निर्णयों के प्रभाव दूरगामी हैं
  • भविष्य में इसके गंभीर संवैधानिक परिणाम हो सकते हैं

इस प्रकार, राहत न मिलने के बावजूद, अदालत की टिप्पणियाँ नीतिगत चेतावनी के रूप में देखी जा रही हैं।


AI आधारित निर्णय-प्रणाली: सुविधा या खतरा?

यह मामला एक मूलभूत प्रश्न उठाता है—
क्या AI दक्षता के नाम पर न्याय और निष्पक्षता से समझौता कर सकता है?

AI के संभावित लाभ

  • तेज़ निर्णय-प्रक्रिया
  • बड़े डेटा का विश्लेषण
  • मानवीय पूर्वाग्रह को कम करने की संभावना

AI के गंभीर जोखिम

  • एल्गोरिदमिक पूर्वाग्रह (Algorithmic Bias)
  • गलत या अपूर्ण डेटा पर आधारित निष्कर्ष
  • जवाबदेही का अभाव
  • प्रभावित पक्ष के लिए अपील या सुधार का मार्ग अस्पष्ट

वैश्विक परिप्रेक्ष्य में AI और कानून

दुनिया भर में अदालतें और सरकारें AI के उपयोग पर सतर्क रुख अपना रही हैं—

  • यूरोपीय संघ ने AI Act के माध्यम से “High-Risk AI Systems” के लिए कड़े नियम प्रस्तावित किए हैं
  • अमेरिका में भी न्यायिक निर्णयों में AI के सीमित उपयोग पर बहस जारी है
  • भारत में अभी तक AI के लिए कोई समग्र विधायी ढांचा नहीं है

कलकत्ता हाईकोर्ट की यह टिप्पणी भारत में AI नियमन (AI Regulation) की आवश्यकता को और मजबूत करती है।


IndiaMART मामला: भविष्य के लिए मिसाल?

यह मामला संभवतः भविष्य में—

  • AI आधारित ब्लैकलिस्टिंग
  • डिजिटल प्लेटफॉर्म्स द्वारा स्वचालित बहिष्कार
  • सरकारी व अर्ध-सरकारी निर्णयों में AI उपयोग

जैसे विषयों पर न्यायिक मार्गदर्शन प्रदान कर सकता है।

यदि अदालत अंततः यह तय करती है कि AI-आधारित अपारदर्शी निर्णय असंवैधानिक हैं, तो यह निर्णय भारत में डिजिटल गवर्नेंस के स्वरूप को बदल सकता है।


निष्कर्ष

कलकत्ता हाईकोर्ट द्वारा ChatGPT जैसे AI टूल्स के अंधाधुंध उपयोग पर उठाई गई आपत्ति केवल एक कंपनी या एक विवाद तक सीमित नहीं है। यह निर्णय-निर्माण की आत्मा—न्याय, निष्पक्षता और जवाबदेही—से जुड़ा प्रश्न है।

AI निस्संदेह भविष्य की तकनीक है, लेकिन—

“तकनीक मानव विवेक का विकल्प नहीं, बल्कि उसका सहायक हो सकती है।”

जब तक AI के उपयोग के लिए स्पष्ट नियम, पारदर्शिता और उत्तरदायित्व तय नहीं किए जाते, तब तक न्यायालयों की यह चेतावनी अत्यंत प्रासंगिक और आवश्यक बनी रहेगी।