“एआई द्वारा स्वायत्त निर्णय लेने की कानूनी स्थिति: उत्तरदायित्व, वैधता और विधिक चुनौती”

“एआई द्वारा स्वायत्त निर्णय लेने की कानूनी स्थिति: उत्तरदायित्व, वैधता और विधिक चुनौती”


प्रस्तावना

आर्टिफिशियल इंटेलिजेंस (AI) आज निर्णय लेने की क्षमता में इतनी प्रगति कर चुकी है कि वह स्वतंत्र रूप से (स्वायत्त रूप से) निर्णय ले सकती है—बिना मानवीय हस्तक्षेप के। AI का यह स्वायत्त व्यवहार जहां तकनीकी क्षेत्र में क्रांति ला रहा है, वहीं विधिक क्षेत्र में गंभीर प्रश्न भी खड़े कर रहा है—जैसे कि: क्या AI द्वारा लिए गए निर्णय कानूनी रूप से वैध हैं? यदि AI के कारण कोई नुकसान होता है, तो उत्तरदायी कौन होगा? क्या AI को एक “कानूनी व्यक्ति” का दर्जा दिया जा सकता है?


1. AI और स्वायत्त निर्णय का स्वरूप

AI अब केवल सहायक तकनीक नहीं रही, बल्कि यह जटिल एल्गोरिदम और मशीन लर्निंग के जरिए निर्णय लेने की क्षमता रखती है। उदाहरण के लिए—AI सॉफ्टवेयर स्वचालित रूप से लोन स्वीकृत करता है, स्वास्थ्य निदान करता है, या ड्राइवरलेस कारें चलाता है। इन सभी मामलों में निर्णय मानव के बजाय मशीन द्वारा लिया जाता है।


2. कानूनी मान्यता का अभाव

वर्तमान में अधिकांश देशों के विधिक ढांचे में AI को एक “कानूनी व्यक्ति” नहीं माना गया है। इसका अर्थ है कि AI स्वयं न तो मुकदमा कर सकती है और न ही उस पर मुकदमा किया जा सकता है। यह स्थिति तब जटिल हो जाती है जब AI का निर्णय किसी व्यक्ति को नुकसान पहुँचाता है।

उदाहरण: यदि एक स्वायत्त वाहन दुर्घटना करता है, तो उत्तरदायी कौन है?—वाहन निर्माता, सॉफ्टवेयर डेवलपर, डेटा प्रदाता, या उपभोक्ता?


3. उत्तरदायित्व (Liability) का प्रश्न

AI की स्वायत्तता के कारण “Strict Liability”, “Product Liability”, या “Vicarious Liability” जैसे सिद्धांतों को पुनः परिभाषित करने की आवश्यकता हो सकती है। कुछ विशेषज्ञों का मानना है कि ‘AI-Agent Liability’ की नई श्रेणी विकसित की जानी चाहिए, जिसमें AI एक ‘क्वासी-व्यक्ति’ की भूमिका निभा सके।


4. संविदात्मक और अपराध विधि में स्थिति

AI द्वारा किए गए निर्णय संविदा (Contract) के तहत कितने वैध होंगे? क्या AI के माध्यम से की गई सहमति कानूनी रूप से बाध्यकारी है?
इसी तरह, यदि AI कोई आपराधिक कृत्य करता है (जैसे डेटा उल्लंघन, धोखाधड़ी आदि), तो दंड किसे दिया जाएगा? चूंकि दंडात्मक कानूनों में mens rea (दुष्प्रवृत्ति) आवश्यक होती है, और AI के पास “इरादा” नहीं होता, इसलिए यह एक गहन विधिक बहस का विषय बन गया है।


5. न्यायिक निर्णय और अंतरराष्ट्रीय दृष्टिकोण

कुछ देशों जैसे यूरोपीय संघ ने AI को नियंत्रित करने के लिए AI Liability Directive और AI Act जैसे प्रारूप प्रस्तावित किए हैं, जिसमें स्वायत्त निर्णय के जोखिम और उत्तरदायित्व को विधिक रूप में स्थापित किया गया है। भारत में अभी तक कोई विशिष्ट कानून नहीं है, लेकिन न्यायपालिका और विधि आयोग द्वारा इस विषय पर विमर्श की संभावना है।


6. AI की कानूनी व्यक्तित्व (Legal Personhood) पर बहस

क्या AI को कंपनियों की तरह एक कृत्रिम “कानूनी व्यक्ति” का दर्जा दिया जा सकता है? यदि ऐसा होता है, तो AI स्वयं करार कर सकेगी, संपत्ति रख सकेगी, या मुकदमे का पक्षकार बन सकेगी। परंतु इससे जुड़ी नैतिक और सामाजिक जटिलताएं भी उत्पन्न होंगी।


निष्कर्ष

AI द्वारा स्वायत्त निर्णय लेने की कानूनी स्थिति अभी अस्पष्ट और विकासशील है। जैसे-जैसे AI का प्रयोग विभिन्न क्षेत्रों में बढ़ रहा है, यह आवश्यक हो गया है कि विधि-निर्माता, न्यायपालिका और नीति-निर्धारक मिलकर एक समग्र, न्यायोचित और उत्तरदायित्वयुक्त ढांचा तैयार करें। केवल तकनीकी विकास पर्याप्त नहीं है—इसके विधिक परिणामों को भी समान रूप से समझना और नियंत्रित करना आवश्यक है।