IndianLawNotes.com

“कृत्रिम बुद्धिमत्ता पर न्यायपालिका की चेतावनी: बॉम्बे हाईकोर्ट ने फर्जी AI केस लॉ पर आधारित आयकर आदेश रद्द किया”

“‘Don’t Blindly Trust AI’: बॉम्बे हाईकोर्ट ने असत्यापित AI-जनित केस लॉ के आधार पर पारित आयकर मूल्यांकन को रद्द किया — न्यायपालिका में कृत्रिम बुद्धिमत्ता पर बढ़ता अविश्वास और सतर्कता की आवश्यकता”


भूमिका

डिजिटल युग में कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) का प्रभाव न्यायपालिका, प्रशासन, शिक्षा और उद्योग जगत में तेजी से बढ़ रहा है। न्यायिक कार्यप्रणाली में AI का उपयोग कानूनी अनुसंधान, निर्णय विश्लेषण, और केस मैनेजमेंट जैसे क्षेत्रों में सहायक सिद्ध हो रहा है। लेकिन जब इसी तकनीक पर बिना सत्यापन के भरोसा किया जाता है, तो परिणाम विधिक दृष्टि से अत्यंत खतरनाक हो सकते हैं।
हाल ही में बॉम्बे हाईकोर्ट ने एक ऐतिहासिक और चेतावनीपूर्ण निर्णय में कहा — “Don’t blindly trust AI” — और असत्यापित AI-जनित केस लॉ के आधार पर पारित आयकर मूल्यांकन आदेश को रद्द (quash) कर दिया।

यह फैसला न केवल तकनीक के दुरुपयोग पर न्यायिक चेतावनी है, बल्कि यह न्यायपालिका और कर प्रशासन को याद दिलाता है कि तकनीक केवल सहायक साधन है, न्याय का विकल्प नहीं


मामले की पृष्ठभूमि

इस मामले में एक आयकर अधिकारी (Assessing Officer – AO) ने एक करदाता के खिलाफ मूल्यांकन (Assessment Order) पारित किया था, जिसमें उसने अपनी कानूनी दलीलों को मजबूत करने के लिए कई केस लॉ (Case Laws) का हवाला दिया।
लेकिन जांच के दौरान यह पाया गया कि इनमें से कई केस लॉ कृत्रिम बुद्धिमत्ता आधारित टूल (AI tools) से उत्पन्न किए गए थे — अर्थात् वे वास्तविक न्यायिक निर्णय नहीं थे।

करदाता (Assessee) ने जब इस आदेश को बॉम्बे हाईकोर्ट में चुनौती दी, तो उसने तर्क दिया कि अधिकारी ने तथ्यों और कानून दोनों का गंभीर उल्लंघन किया है क्योंकि उसने असत्यापित और काल्पनिक केस लॉ पर भरोसा किया, जो न्यायिक प्रक्रिया के विरुद्ध है।


याचिकाकर्ता (Assessee) का तर्क

  1. मूल्यांकन अधिकारी ने अपनी रिपोर्ट में जिन निर्णयों का हवाला दिया है, वे किसी भी वैध कानून पुस्तक, न्यायिक डेटाबेस या सरकारी वेबसाइट पर उपलब्ध नहीं हैं।
  2. इन तथाकथित “AI-generated judgments” में न तो सही बेंच का नाम है, न केस नंबर, न रिपोर्टिंग जर्नल।
  3. ऐसे निर्णयों पर भरोसा करना Natural Justice और Rule of Law के सिद्धांतों का उल्लंघन है।
  4. अधिकारी का कार्य मनमाना (arbitrary) और अवैध है, क्योंकि वह अपने विवेक के स्थान पर एक मशीन के आउटपुट पर निर्भर रहा।

राजस्व विभाग (Income Tax Department) का पक्ष

राजस्व विभाग ने बचाव में कहा कि—

  1. अधिकारी ने केवल AI टूल से research assistance ली थी, न कि उसके आधार पर अंतिम निर्णय दिया।
  2. यदि कोई तकनीकी त्रुटि हुई है, तो उसे सुधारने का अवसर मिलना चाहिए।
  3. आदेश के मूल निष्कर्ष (findings) तथ्यों पर आधारित हैं, न कि केवल केस लॉ पर।

लेकिन अदालत ने इस तर्क को अस्वीकार कर दिया।


बॉम्बे हाईकोर्ट का निर्णय

न्यायमूर्ति जी.एस. पटेल और न्यायमूर्ति नीरज गोखले की खंडपीठ ने इस मामले पर सख्त टिप्पणी करते हुए कहा कि—

“किसी भी न्यायिक या अर्ध-न्यायिक प्राधिकारी को ऐसे निर्णयों पर भरोसा नहीं करना चाहिए जो AI-Generated हैं और जिनका सत्यापन नहीं हुआ है। कानून का शासन (Rule of Law) कल्पनाशील तकनीक पर नहीं, बल्कि सत्यापित न्यायिक मिसालों पर आधारित है।”

न्यायालय ने आगे कहा कि:

  • यदि कोई अधिकारी असत्यापित स्रोतों से जानकारी लेकर उस पर आधारित निर्णय देता है, तो वह न केवल procedural impropriety करता है बल्कि substantive illegality का भी दोषी होता है।
  • कृत्रिम बुद्धिमत्ता का उपयोग केवल सहायक शोध के रूप में किया जा सकता है, लेकिन उसे कानूनी प्रमाण (legal authority) के रूप में नहीं माना जा सकता।
  • अधिकारी का यह कर्तव्य है कि वह हर संदर्भित केस लॉ का प्रमाणिक स्रोत (authentic source) जांचे, चाहे वह मानवीय शोध से मिले या मशीन जनित सूचना से।

अतः न्यायालय ने उक्त मूल्यांकन आदेश को पूरी तरह रद्द (Quashed) कर दिया और आयकर विभाग को नया मूल्यांकन करने का निर्देश दिया।


महत्वपूर्ण टिप्पणियाँ (Key Observations)

  1. AI कोई कानून नहीं बना सकता:
    AI केवल डेटा प्रोसेस करता है, कानून का निर्माण या व्याख्या नहीं कर सकता।
  2. जांच की ज़िम्मेदारी मनुष्य की है:
    तकनीक द्वारा प्रस्तुत प्रत्येक सूचना की पुष्टि अधिकारी को स्वयं करनी होगी।
  3. न्यायिक प्रणाली में भरोसे का प्रश्न:
    यदि न्यायिक या प्रशासनिक अधिकारी असत्यापित AI जानकारी पर निर्णय देंगे, तो यह नागरिकों के न्याय पर विश्वास को कमजोर करेगा।
  4. AI hallucination का खतरा:
    कोर्ट ने कहा कि AI टूल्स अक्सर “hallucination” करते हैं, यानी वे ऐसे केस लॉ या तथ्य उत्पन्न कर सकते हैं जो अस्तित्व में ही नहीं हैं।

कानूनी सिद्धांतों की दृष्टि से विश्लेषण

इस निर्णय ने भारतीय कानून के कई सिद्धांतों को सशक्त किया है:

1. Rule of Law (कानून का शासन)

न्याय केवल विधि और सत्यापित न्यायिक नजीरों पर आधारित होना चाहिए, न कि स्वचालित तकनीकी सुझावों पर।

2. Principles of Natural Justice (प्राकृतिक न्याय के सिद्धांत)

यदि किसी पक्ष के अधिकारों को प्रभावित करने वाला निर्णय असत्यापित तथ्यों पर आधारित है, तो यह audi alteram partem (दूसरे पक्ष को सुने बिना निर्णय न देना) के सिद्धांत का उल्लंघन है।

3. Judicial Accountability (न्यायिक जवाबदेही)

किसी भी अधिकारी या न्यायिक संस्था को अपने निर्णयों की सामग्री और स्रोतों के लिए उत्तरदायी रहना होगा।


प्रशासनिक और सामाजिक प्रभाव

यह मामला केवल एक आयकर मूल्यांकन का नहीं, बल्कि AI और न्यायिक प्रशासन के संबंध का संकेतक है।

  • इसने यह स्पष्ट किया कि AI-जनित जानकारी बिना मानवीय जांच के स्वीकार नहीं की जा सकती।
  • प्रशासनिक अधिकारियों को अब यह सुनिश्चित करना होगा कि वे AI द्वारा सुझाए गए कानूनी उद्धरणों या निर्णयों की प्रामाणिकता (authenticity) की जांच करें।
  • न्यायिक शिक्षा (Judicial Training) और सरकारी विभागों में AI Ethics Guidelines की आवश्यकता महसूस की जा रही है।

अंतरराष्ट्रीय परिप्रेक्ष्य (Global Context)

AI-Generated Fake Case Laws का खतरा केवल भारत तक सीमित नहीं है।

  • अमेरिका में 2023 में एक प्रसिद्ध मामला हुआ था, जहाँ एक वकील ने ChatGPT से तैयार की गई फर्जी न्यायिक मिसालें कोर्ट में प्रस्तुत कीं, जिसके लिए उस पर जुर्माना लगाया गया
  • कनाडा और यूरोप में भी अदालतों ने यह स्पष्ट किया है कि AI टूल्स का उपयोग केवल “research assistance” तक सीमित रहना चाहिए।

बॉम्बे हाईकोर्ट का निर्णय इसलिए वैश्विक स्तर पर एक मिसाल (precedent) बन सकता है कि विकासशील देशों में भी न्यायपालिका तकनीक के उपयोग को विवेकपूर्ण तरीके से नियंत्रित कर रही है।


AI और कानून का भविष्य

AI की शक्ति को पूरी तरह नकारा नहीं जा सकता। न्यायालयों में AI का उपयोग—

  • केस ट्रैकिंग,
  • डाटा एनालिसिस,
  • निर्णय भविष्यवाणी,
  • भाषा अनुवाद,
  • दस्तावेज़ वर्गीकरण आदि—में सहायक सिद्ध हो सकता है।

परंतु, इस मामले ने यह स्थापित किया कि AI केवल “सहायक न्यायाधीश” हो सकता है, “न्यायाधीश” नहीं।
मानवीय विवेक (Human Judgment) हमेशा सर्वोपरि रहेगा।


न्यायालय का निर्देश और आगे की राह

बॉम्बे हाईकोर्ट ने न केवल आदेश रद्द किया, बल्कि यह भी निर्देश दिया कि—

  • आयकर विभाग अपने अधिकारियों को यह प्रशिक्षण दे कि वे किसी भी AI-जनित सूचना को बिना सत्यापन के उपयोग न करें।
  • सभी निर्णय केवल प्रमाणिक डेटाबेस (जैसे SCC, AIR, Taxmann, ITD) पर उपलब्ध केस लॉ पर आधारित हों।
  • भविष्य में यदि कोई अधिकारी असत्यापित AI सामग्री का उपयोग करता पाया गया, तो उसके खिलाफ विभागीय कार्रवाई की जा सकती है।

निष्कर्ष

“Don’t blindly trust AI” — यह वाक्य केवल एक न्यायिक टिप्पणी नहीं, बल्कि आने वाले समय के लिए एक गहरी चेतावनी है।
AI मानव बुद्धि की रचना है, परंतु जब मनुष्य उस पर आंख मूंदकर भरोसा करता है, तो वही तकनीक विधिक भूलों का कारण बन सकती है।

बॉम्बे हाईकोर्ट का यह निर्णय भारतीय न्याय प्रणाली के लिए एक ऐतिहासिक चेतावनी (Judicial Wake-Up Call) है कि—

“कानून की व्याख्या मशीन नहीं, मनुष्य करेगा;
और न्याय वही होगा जो सत्यापित तथ्यों और विवेकपूर्ण विचार पर आधारित होगा।”


समापन टिप्पणी

AI और कानून का यह संगम आने वाले वर्षों में और गहरा होगा। लेकिन इस निर्णय ने यह सुनिश्चित कर दिया है कि भारतीय न्यायपालिका प्रौद्योगिकी की दास नहीं, बल्कि उसकी नियंत्रक रहेगी।
यह फैसला न केवल कर प्रशासन, बल्कि सभी कानूनी संस्थानों के लिए एक नैतिक मार्गदर्शक (Ethical Guideline) है — कि

“टेक्नोलॉजी की रफ्तार कितनी भी तेज़ हो, पर न्याय की गाड़ी हमेशा सत्यापन और विवेक के पहियों पर ही चलेगी।”