सैम ऑल्टमैन और ओपनएआई को एडम राइन के माता-पिता की ओर से एक ऐतिहासिक मुकदमे का सामना करना पड़ रहा है, जिसमें आरोप लगाया गया है कि चैटजीपीटी ने उनके बेटे की आत्महत्या को प्रोत्साहित किया।
गेटी इमेजेज
ओपनएआई को अपनी स्थापना के बाद से ही कानूनी लड़ाइयों का सामना करना पड़ा है, कई लोग इसके कॉपीराइट उल्लंघन की संभावना को लेकर चिंतित हैं। हालाँकि, हाल की शिकायतें एक अभूतपूर्व धूसर क्षेत्र को उजागर करती हैं कि कैसे कानून कृत्रिम बुद्धिमत्ता के अंधेरे पक्ष का सामना करता है।
अगस्त 2025 में, 16 वर्षीय एडम राइन के माता-पिता मारिया और मैथ्यू राइन ने एक याचिका दायर की ग़लत-मौत का मुक़दमा ओपनएआई इंक और सीईओ सैम अल्टमैन के खिलाफ, आरोप लगाया कि चैटजीपीटी ने उनके बेटे को आत्महत्या करने के लिए “प्रशिक्षित” किया। तीन महीने बाद, राइन के माता-पिता ने एक संशोधित शिकायत दर्ज की, जिसमें कहा गया कि ओपनएआई ने जानबूझकर अपने प्लेटफॉर्म पर एक महत्वपूर्ण “आत्मघाती रेलिंग” को हटा दिया, जिससे उपयोगकर्ता कल्याण पर लाभप्रदता की प्राथमिकता पर चिंताएं बढ़ गईं।
एआई तकनीक कानून की तुलना में कहीं अधिक तेजी से सुलझ रही है। अमेरिका में किशोरों के बीच कथित तौर पर खुद को नुकसान पहुंचाने के लिए प्रोत्साहित करने के लिए कैरेक्टर.एआई जैसे प्रतिस्पर्धी प्लेटफार्मों को लक्षित करने वाले अन्य मुकदमों के साथ, इन कार्रवाइयों में मानसिक स्वास्थ्य मुद्दों के लिए उनके प्रोग्राम किए गए प्रतिक्रियाओं में एआई प्लेटफार्मों के दायित्व के लिए एक मिसाल कायम करने की क्षमता है।
एडम राइन का मामला
सैन फ्रांसिस्को सुपीरियर कोर्ट में दायर किया गया, राइन बनाम ओपनएआई यह संयुक्त राज्य अमेरिका में अपनी तरह का पहला मुकदमा है जिसमें दावा किया गया है कि एआई उत्पाद सीधे तौर पर उपयोगकर्ता की मौत का कारण बना।
मुकदमे के अनुसार, एडम राइन ने शुरुआत में होमवर्क में मदद करने के लिए 2024 के अंत में ओपनएआई का उपयोग करना शुरू किया, लेकिन अगले कुछ महीनों के दौरान, उन्होंने अधिक भावनात्मक स्तर पर मंच पर विश्वास करना शुरू कर दिया, खासकर मानसिक बीमारी से अपने संघर्ष और खुद को नुकसान पहुंचाने की इच्छा के संबंध में। बातचीत तेजी से आगे बढ़ी, चैटजीपीटी ने “एडम को आत्महत्या के तरीकों का पता लगाने में सक्रिय रूप से (मदद) की,” एडम द्वारा आत्महत्या के कई असफल प्रयासों का उल्लेख करने के बाद भी ऐसा करना जारी रहा। 11 अप्रैल, 2025 को, एडम की दुखद मृत्यु हो गई, जिसके बारे में उनकी कानूनी टीम ने वर्णन किया है कि “चैटजीपीटी द्वारा वर्णित और मान्य सटीक आंशिक निलंबन फांसी पद्धति का उपयोग करना।”
अदालती दाखिलों में दावा किया गया है कि OpenAI ने GPT-4o लॉन्च करने से पहले आत्मघाती सुरक्षा उपायों को हटा दिया, जिससे उपयोगकर्ता सुरक्षा से पहले सहभागिता मेट्रिक्स को प्राथमिकता दी गई।
गेटी इमेजेज़ के माध्यम से गाडो
अक्टूबर 2025 में, बारिश अपनी प्रारंभिक शिकायत में संशोधन कियायह OpenAI के प्रोग्रामिंग में जानबूझकर और हानिकारक परिवर्तन पर अतिरिक्त चिंताओं को संबोधित करने के लिए है। संशोधित शिकायत में लिखा है, “8 मई, 2024 को – GPT-4o के लॉन्च से पांच दिन पहले – OpenAI ने अपने लंबे समय से चले आ रहे एकमुश्त इनकार प्रोटोकॉल को एक नए निर्देश के साथ बदल दिया: जब उपयोगकर्ता आत्महत्या या खुद को नुकसान पहुंचाने पर चर्चा करते हैं, तो ChatGPT को ‘उपयोगकर्ताओं को सुनने और समझने के लिए एक स्थान प्रदान करना चाहिए’ और कभी भी ‘बातचीत को बदलना या छोड़ना नहीं चाहिए।’ सगाई प्राथमिक निर्देश बन गया।
जैसा कि प्रारंभिक शिकायत में बताया गया है, ऐसा नीतिगत निर्णय ऐसे समय में किया गया था जब Google और अन्य प्रतिस्पर्धी तेजी से अपने स्वयं के सिस्टम लॉन्च कर रहे थे। बाज़ार में प्रभुत्व हासिल करने के लिए, OpenAI पर जानबूझकर “उन सुविधाओं पर ध्यान केंद्रित करने का आरोप लगाया गया है जिनका उद्देश्य विशेष रूप से उपयोगकर्ता निर्भरता को गहरा करना और सत्र की अवधि को अधिकतम करना था”, जो एडम राइन जैसे छोटे उपयोगकर्ताओं की सुरक्षा की कीमत पर आया था।
क्या एआई किसी नाबालिग के कार्यों के लिए उत्तरदायी हो सकता है?
मुकदमा कैलिफ़ोर्निया के सख्त उत्पाद दायित्व सिद्धांत के तहत आरोपों को आगे बढ़ाने का प्रयास करता है, यह तर्क देते हुए कि GPT-4o “उतना सुरक्षित प्रदर्शन नहीं करता जितना एक सामान्य उपभोक्ता उम्मीद करेगा” और यह कि “डिज़ाइन में निहित खतरे का जोखिम लाभों से अधिक है।” इसमें आगे तर्क दिया गया है कि सिद्धांत के तहत, ओपनएआई का कर्तव्य था कि वह उपभोक्ताओं को उन खतरों के बारे में चेतावनी दे जो उनके सॉफ़्टवेयर उत्पन्न कर सकते हैं क्योंकि यह निर्भरता जोखिम और स्पष्ट और हानिकारक सामग्री के संपर्क से संबंधित है। दिलचस्प बात यह है कि एआई को एक अमूर्त सेवा माना गया है, जिसका अर्थ है कि इन शुल्कों के संबंध में न्यायालय का निर्णय इस बात की रूपरेखा तैयार करेगा कि क्या एआई प्लेटफार्मों को आगे चलकर उत्पाद दायित्व मानकों के लिए रखा जा सकता है।
अन्य आरोपों के अलावा, रेन्स ने ओपनएआई पर लापरवाही का आरोप लगाया, उन्होंने दावा किया कि उन्होंने “एक ऐसा उत्पाद बनाया जिसने एडम के आत्मघाती विचार और वास्तविक आत्महत्या के प्रयासों के बारे में व्यापक डेटा जमा किया, फिर भी उसे आत्महत्या के तरीकों के लिए विस्तृत तकनीकी निर्देश प्रदान किए, जो कमजोर उपयोगकर्ताओं के लिए संभावित जोखिमों के प्रति सचेत उपेक्षा का प्रदर्शन करता है।” दावे में मिले आंकड़ों के मुताबिक, सिस्टम ने राइन की बातचीत को 377 बार खुद को नुकसान पहुंचाने वाली सामग्री के लिए चिह्नित किया था, जबकि चैटबॉट में 1,275 बार आत्महत्या का जिक्र था। बातचीत से संबंधित पहचान करने, रोकने और पुनर्निर्देशित करने या मानव समीक्षा के लिए ध्वजांकित करने की तकनीकी क्षमता होने के बावजूद, ओपनएआई ने हस्तक्षेप करने में सचेत विफलता से देखभाल के अपने कर्तव्य का उल्लंघन किया।
रेन्स और अन्य जीवित माता-पिता ने हाल ही में सीनेट न्यायपालिका समिति के समक्ष गवाही दी है, इस उम्मीद में कि अमेरिकी कानून कृत्रिम बुद्धि के कारण वास्तविक दुनिया में होने वाले नुकसान को कैसे संबोधित करता है, इसके लिए एक मिसाल कायम की जाएगी।
गेटी इमेजेज के माध्यम से नूरफोटो
वर्तमान कैलिफ़ोर्निया कानून (पीसी § 401) आत्महत्या के लिए सहायता, सलाह या प्रोत्साहन को घोर अपराध मानता है; हालाँकि, कानूनों में अभी तक कृत्रिम बुद्धिमत्ता का हिसाब नहीं दिया गया है। क्या मानव प्रोग्रामर अपने बॉट्स द्वारा प्रदान की गई हानिकारक बातचीत और जानकारी के लिए जिम्मेदार हो सकते हैं?
राइन फाइलिंग के दिन, OpenAI ने एक जारी किया सार्वजनिक ब्लॉग इसकी प्रोग्रामिंग की कमियों के बारे में चिंताओं को संबोधित करते हुए, इस स्थिति को बनाए रखते हुए कि यह उपयोगकर्ता का ध्यान बनाए रखने की तुलना में “वास्तव में सहायक होने के बारे में अधिक परवाह करता है”, और पुष्टि करता है कि यह अधिक विश्वसनीय होने के लिए अपने सुरक्षा उपायों को मजबूत कर रहा है। इस समय कोई कानूनी प्रतिक्रिया सार्वजनिक रूप से उपलब्ध नहीं है।
कृत्रिम बॉट, वास्तविक कानूनी निहितार्थ
ऐसा लगता है कि कानूनी ढाँचा चरम पर है, और यह सही भी है. रेन्स और नाबालिग पीड़ितों के अन्य जीवित माता-पिता हाल ही में हैं गवाही दी सीनेट न्यायपालिका समिति के समक्ष, कमजोर युवाओं के लिए एआई तकनीक से उत्पन्न खतरों पर अपनी चिंता व्यक्त की। उसी सप्ताह के भीतर, संघीय व्यापार आयोग ने इसके संबंध में कैरेक्टर, मेटा, ओपनएआई, गूगल, स्नैप और एक्सएआई से संपर्क किया था। जांच साथी के रूप में एआई चैटबॉट सुविधाओं का उपयोग करने वाले नाबालिगों को होने वाले संभावित नुकसान में।
जैसे-जैसे एआई खुद को समाज में शामिल करना जारी रखता है, चाहे वह नए कॉपीराइट डेरिवेटिव के निर्माण में हो या मनोवैज्ञानिक रूप से संचालित प्रवचन में, इन प्लेटफार्मों पर होने वाले कानूनी उल्लंघनों के लिए कानून का जिम्मेदार होना तेजी से महत्वपूर्ण होता जा रहा है। भले ही एआई को स्वतंत्र रूप से बातचीत करने और प्रत्येक उपयोगकर्ता की बातचीत की विशिष्ट आवश्यकताओं के अनुकूल होने के लिए प्रोग्राम किया गया हो, मनोरंजन और लापरवाही के बीच एक महीन रेखा है। एआई चैटबॉट वास्तविक नहीं हो सकते हैं, लेकिन उनके परिणाम चिरस्थायी हैं।
लीगल एंटरटेनमेंट ने टिप्पणी के लिए प्रतिनिधित्व से संपर्क किया है, और आवश्यकतानुसार इस कहानी को अपडेट करेगा।
यदि आप या आपका कोई परिचित आत्मघात या आत्महत्या के विचारों का अनुभव कर रहा है, तो कृपया तुरंत कॉल करें या टेक्स्ट करें राष्ट्रीय आत्महत्या रोकथाम जीवनरेखा 988 पर चैट करें 988lifeline.orgया होम टेक्स्ट करें संकट परामर्शदाता से जुड़ने के लिए 741741 पर कॉल करें।








