Site icon Manvadhikar Abhivyakti News

एआई ने नकली कानूनी मामले बनाना किया शुरू और वास्तविक अदालतों में बनाई अपनी जगह

हमने कृत्रिम बुद्धिमत्ता (एआई) द्वारा बनाई गई मशहूर हस्तियों की डीपफेक, स्पष्ट छवियां देखी हैं। एआई ने अन्य चीजों के अलावा संगीत , चालक रहित रेस कारों और गलत सूचना फैलाने में भी भूमिका निभाई है ।

फिर, इसमें कोई आश्चर्य की बात नहीं है कि एआई का हमारी कानूनी प्रणालियों पर भी गहरा प्रभाव पड़ता है।

यह सर्वविदित है कि अदालतों को विवादों का फैसला कानून के आधार पर करना चाहिए, जो वकीलों द्वारा ग्राहक के मामले के हिस्से के रूप में अदालत में प्रस्तुत किया जाता है। इसलिए यह बेहद चिंताजनक है कि एआई द्वारा आविष्कृत नकली कानून का इस्तेमाल कानूनी विवादों में किया जा रहा है।

इससे न केवल वैधता और नैतिकता के मुद्दे पैदा होते हैं, बल्कि वैश्विक कानूनी प्रणालियों में विश्वास और विश्वास को भी कम करने का खतरा होता है।

इसमें कोई संदेह नहीं है कि जेनेरिक एआई कानूनी प्रणाली के कई पहलुओं सहित समाज के लिए परिवर्तनकारी क्षमता वाला एक शक्तिशाली उपकरण है। लेकिन इसका उपयोग जिम्मेदारियों और जोखिमों के साथ आता है।

वकीलों को पेशेवर ज्ञान और अनुभव को सावधानीपूर्वक लागू करने के लिए प्रशिक्षित किया जाता है, और आमतौर पर वे बड़े जोखिम लेने वाले नहीं होते हैं। हालाँकि, कुछ लापरवाह वकील (और स्व-प्रतिनिधित्व करने वाले वादी) कृत्रिम बुद्धिमत्ता की चपेट में आ गए हैं।

एआई मॉडल को बड़े पैमाने पर डेटा सेट पर प्रशिक्षित किया जाता है। उपयोगकर्ता द्वारा संकेत दिए जाने पर, वे नई सामग्री (पाठ्य और दृश्य-श्रव्य दोनों) बना सकते हैं।

हालाँकि इस तरह से तैयार की गई सामग्री बहुत विश्वसनीय लग सकती है, लेकिन यह ग़लत भी हो सकती है। यह एआई मॉडल के “अंतराल को भरने” के प्रयास का परिणाम है जब इसका प्रशिक्षण डेटा अपर्याप्त या त्रुटिपूर्ण होता है, और इसे आमतौर पर ” मतिभ्रम ” कहा जाता है।

कुछ संदर्भों में, जेनरेटिव एआई मतिभ्रम कोई समस्या नहीं है। दरअसल, इसे रचनात्मकता के उदाहरण के तौर पर देखा जा सकता है।

लेकिन अगर एआई ने मतिभ्रम किया या गलत सामग्री बनाई जिसे कानूनी प्रक्रियाओं में उपयोग किया जाता है, तो यह एक समस्या है – खासकर जब वकीलों पर समय के दबाव और कई लोगों के लिए कानूनी सेवाओं तक पहुंच की कमी के साथ संयुक्त हो।

इस शक्तिशाली संयोजन के परिणामस्वरूप कानूनी अनुसंधान और दस्तावेज़ तैयार करने में लापरवाही और शॉर्टकट हो सकते हैं, संभावित रूप से कानूनी पेशे के लिए प्रतिष्ठित मुद्दे पैदा हो सकते हैं और न्याय प्रशासन में जनता के विश्वास की कमी हो सकती है।

दुनिया भर में, कानूनी नियामकों और अदालतों ने विभिन्न तरीकों से प्रतिक्रिया दी है।

कई अमेरिकी राज्य बार और अदालतों ने जेनेरिक एआई के उपयोग पर मार्गदर्शन, राय या आदेश जारी किए हैं, जिसमें जिम्मेदार अपनाने से लेकर पूर्ण प्रतिबंध तक शामिल है।

यूके और ब्रिटिश कोलंबिया की लॉ सोसायटी और न्यूजीलैंड की अदालतों ने भी दिशानिर्देश विकसित किए हैं।

ऑस्ट्रेलिया में, एनएसडब्ल्यू बार एसोसिएशन के पास बैरिस्टरों के लिए एक जेनरेटिव एआई गाइड है। एनएसडब्ल्यू की लॉ सोसाइटी और विक्टोरिया के लॉ इंस्टीट्यूट ने सॉलिसिटर के आचरण नियमों के अनुरूप जिम्मेदार उपयोग पर लेख जारी किए हैं।

जनता की तरह, कई वकीलों और न्यायाधीशों को जेनरेटिव एआई की कुछ समझ होगी और वे इसकी सीमा और लाभ दोनों को पहचान सकते हैं। लेकिन ऐसे भी लोग हैं जो शायद इतने जागरूक नहीं हैं। मार्गदर्शन निस्संदेह मदद करता है।

लेकिन एक अनिवार्य दृष्टिकोण की आवश्यकता है. जो वकील जेनरेटिव एआई टूल का उपयोग करते हैं, वे इसे अपने निर्णय और परिश्रम के विकल्प के रूप में नहीं मान सकते हैं, और उन्हें प्राप्त जानकारी की सटीकता और विश्वसनीयता की जांच करनी चाहिए।

ऑस्ट्रेलिया में, अदालतों को अभ्यास नोट्स या नियमों को अपनाना चाहिए जो मुकदमेबाजी में जेनरेटिव एआई का उपयोग किए जाने पर अपेक्षाएं निर्धारित करते हैं। न्यायालय के नियम स्व-प्रतिनिधित्व करने वाले वादियों का भी मार्गदर्शन कर सकते हैं, और जनता को सूचित करेंगे कि हमारी अदालतें समस्या से अवगत हैं और इसका समाधान कर रही हैं।

वकीलों द्वारा एआई के जिम्मेदार उपयोग को बढ़ावा देने के लिए कानूनी पेशा भी औपचारिक मार्गदर्शन अपना सकता है। कम से कम, प्रौद्योगिकी योग्यता ऑस्ट्रेलिया में वकीलों की सतत कानूनी शिक्षा की एक आवश्यकता बन जानी चाहिए।

ऑस्ट्रेलिया में वकीलों द्वारा जेनरेटिव एआई के जिम्मेदार और नैतिक उपयोग के लिए स्पष्ट आवश्यकताएं निर्धारित करने से उचित अपनाने को बढ़ावा मिलेगा और हमारे वकीलों, हमारी अदालतों और इस देश में न्याय के समग्र प्रशासन में जनता का विश्वास बढ़ेगा।

Exit mobile version