GPT-5 के लॉन्च के साथ, Openai ने स्पष्ट रूप से लोगों को स्वास्थ्य सलाह के लिए अपने मॉडल का उपयोग करने के लिए कहना शुरू कर दिया है। लॉन्च इवेंट में, ऑल्टमैन ने स्टेज फेलिप मिलोन, एक ओपनईएआई कर्मचारी और उनकी पत्नी, कैरोलिना मिलन पर स्वागत किया, जिन्हें हाल ही में कैंसर के कई रूपों का पता चला था। कैरोलिना ने अपने निदान के साथ मदद के लिए चैट से पूछने के बारे में बात करते हुए कहा कि उसने मेडिकल शब्दजाल का अनुवाद करने के लिए अपने बायोप्सी परिणामों की प्रतियां चटपट के लिए अपलोड की थीं और एआई से विकिरण को आगे बढ़ाने के लिए निर्णय लेने में मदद करने के लिए कहा था। तीनों ने इसे डॉक्टरों और रोगियों के बीच ज्ञान की खाई को कम करने का एक सशक्त उदाहरण कहा।
दृष्टिकोण में इस बदलाव के साथ, Openai खतरनाक पानी में जा रहा है।
एक के लिए, यह सबूतों का उपयोग कर रहा है कि डॉक्टर एआई से एक नैदानिक उपकरण के रूप में लाभ उठा सकते हैं, जैसा कि केन्या अध्ययन में, यह सुझाव देने के लिए कि बिना किसी चिकित्सा पृष्ठभूमि के लोगों को एआई मॉडल से अपने स्वयं के स्वास्थ्य के बारे में सलाह के लिए पूछना चाहिए। समस्या यह है कि बहुत से लोग डॉक्टर द्वारा इसे चलाए बिना इस सलाह के लिए पूछ सकते हैं (और ऐसा करने की संभावना कम है कि अब चैटबॉट शायद ही कभी उन्हें संकेत देता है)।
दरअसल, GPT-5 के लॉन्च से दो दिन पहले, आंतरिक चिकित्सा का नाम एक ऐसे व्यक्ति के बारे में एक पेपर प्रकाशित किया, जिसने नमक खाना बंद कर दिया और चैट के साथ बातचीत के बाद ब्रोमाइड की खतरनाक मात्रा में अंतर्ग्रहण करना शुरू कर दिया। उन्होंने ब्रोमाइड विषाक्तता विकसित की-जो कि खाद्य और औषधि प्रशासन द्वारा 1970 के दशक में ओवर-द-काउंटर दवाओं में ब्रोमाइड के उपयोग पर अंकुश लगाने के बाद अमेरिका में काफी हद तक गायब हो गई थी और फिर लगभग अस्पताल में सप्ताह बिताने के लिए मर गए।
तो यह सब क्या है? अनिवार्य रूप से, यह जवाबदेही के बारे में है। जब एआई कंपनियां स्वास्थ्य देखभाल जैसे एक विशिष्ट क्षेत्र में मानवीय सहायक की पेशकश करने के लिए सामान्य बुद्धि का वादा करने से चली जाती हैं, तो यह एक दूसरे, फिर भी अनुत्तरित प्रश्न को उठाती है कि गलतियों के समय क्या होगा। जैसे -जैसे चीजें खड़ी होती हैं, वहाँ बहुत कम संकेत है कि टेक कंपनियों को नुकसान के लिए उत्तरदायी बनाया जाएगा।
“जब डॉक्टर आपको त्रुटि या पूर्वाग्रहपूर्ण पूर्वाग्रह के कारण हानिकारक चिकित्सा सलाह देते हैं, तो आप उन्हें कदाचार के लिए मुकदमा कर सकते हैं और फिर से प्राप्त कर सकते हैं,” उत्तरी कैरोलिना शार्लेट विश्वविद्यालय में डेटा विज्ञान और दर्शन के सहायक प्रोफेसर डेमियन विलियम्स कहते हैं।
“जब CHATGPT आपको हानिकारक चिकित्सा सलाह देता है क्योंकि इसे पूर्वाग्रही डेटा पर प्रशिक्षित किया गया है, या क्योंकि सिस्टम के संचालन में ‘मतिभ्रम’ निहित है, तो आपका क्या सहारा है?”
यह कहानी मूल रूप से एल्गोरिथ्म, एआई पर हमारे साप्ताहिक समाचार पत्र में दिखाई दी। पहले अपने इनबॉक्स में इस तरह की कहानियां प्राप्त करने के लिए, यहां साइन अप करें।