होम समाचार जनता ने खबर पर भरोसा खो दिया है – क्या एआई दिन...

जनता ने खबर पर भरोसा खो दिया है – क्या एआई दिन बचा सकता है?

2
0

इन दिनों एक्स पर लगभग हर दूसरी पोस्ट के नीचे अपरिहार्य भीड़-खट्टे, एआई-आधारित तथ्य जांच में आता है; “@Grok यह सच है?”

सिर्फ 30 प्रतिशत अमेरिकियों का कहना है कि वे पिछले साल 32 प्रतिशत से नीचे “समाचार पर भरोसा करते हैं” और 55 प्रतिशत पर अच्छी तरह से नीचे कहा गया था कि 1997 में समाचार में उनके पास “आत्मविश्वास का एक बड़ा सौदा” था।

इसलिए यदि सामाजिक जनता तथ्य-जाँच में मदद करने के लिए एआई की ओर रुख कर रही है, तो क्या यह समाचार में विश्वास बहाल करेगा?

सैम अल्टमैन को अपने संदेह हैं।

“लोगों को चैट में बहुत अधिक विश्वास है, जो दिलचस्प है, क्योंकि, जैसे, एआई मतिभ्रम करता है,” अल्टमैन ने टेक्नोलॉजिस्ट एंड्रयू मेने के साथ एक पॉडकास्ट के दौरान कहा। “यह वह तकनीक होनी चाहिए जिस पर आपको इतना भरोसा नहीं है।”

वह सही है।

बीबीसी के हाल के अध्ययनों में पाया गया कि समाचार-संबंधी प्रश्नों के लिए 51 प्रतिशत एआई प्रतिक्रियाओं में महत्वपूर्ण मुद्दे शामिल थे, बहुत गहरे हिमखंड की नोक जो एआई कंपनियों को इकट्ठा करती है और जानकारी को संसाधित करती है। एआई सिस्टम नियमित रूप से झूठे वित्तीय डेटा पेश करते हैं, बाजार के रुझान को गढ़ते हैं और आत्मविश्वास से उन घटनाओं का वर्णन करते हैं जो कभी नहीं हुईं।

उदाहरण के लिए, Google के AI अवलोकन सुविधा ने हाल ही में मिनेसोटा सोलर कंपनी, वुल्फ रिवर इलेक्ट्रिक को राज्य के अटॉर्नी जनरल के साथ एक सक्रिय मुकदमे में मतिभ्रम किया, जिसमें उनके पास कोई हिस्सा नहीं है, कंपनी की प्रतिष्ठा को नुकसान पहुंचा रहा है और जिसके परिणामस्वरूप मुकदमा $ 100 मिलियन से अधिक हर्जाने की मांग करता है।

यह अनुसंधान प्रयोगशाला में मतिभ्रम करने के लिए एक बात है, लेकिन एआई मतिभ्रम उपभोक्ता धारणा और व्यावसायिक परिणामों को प्रभावित कर रहे हैं। हमें एआई की समाचार समस्या को हल करने के तरीके के बारे में दीर्घकालिक सोचने की आवश्यकता है-इससे पहले कि अमेरिकी अब कथा से तथ्य को अलग नहीं कर सकते।

एक एआई “मतिभ्रम” तब होता है जब बड़ी भाषा मॉडल गलत तरीके से एक प्रतिक्रिया में सबसे अधिक संभावना अगले शब्द की गणना करते हैं, अक्सर सत्यापित तथ्यों के रूप में एक ही आत्मविश्वास के साथ प्रस्तुत त्रुटियों की एक श्रृंखला में कैस्केडिंग करते हैं। कभी -कभी, यह भी गलत स्रोतों के साथ आता है।

समस्या सरल तथ्यात्मक त्रुटियों और “हानिरहित दुर्घटनाओं” से परे है, क्योंकि Google ने वुल्फ नदी की घटना को वर्गीकृत किया था। एआई सिस्टम संपादकीय पूर्वाग्रह को कथित रूप से उद्देश्य रिपोर्टिंग में इंजेक्ट कर सकता है, बिना किसी पारदर्शिता या जवाबदेही के बाजार विश्लेषण के स्वर और अर्थ को बदल सकता है।

ए-असिस्टेड कवर लेटर या वार्षिक रिपोर्ट के लिए, यह एक सरल गलती है जिसे ऊपर से चमक दिया जा सकता है। जब यह एक ब्रेकिंग न्यूज स्टोरी के बारे में एक तथ्यात्मक त्रुटि होती है, तो ऑनलाइन साझा की जाती है और लाखों लोगों द्वारा देखी जाती है, एक एआई मतिभ्रम जल्दी से तथ्य के रूप में स्वीकार किया जा सकता है।

तात्कालिकता स्पष्ट हो जाती है जब आप इस जानकारी का उपभोग करने पर विचार करते हैं। रॉयटर्स इंस्टीट्यूट की 2025 डिजिटल न्यूज रिपोर्ट के अनुसार, 25 से कम उम्र के 15 प्रतिशत लोग समाचार साप्ताहिक के लिए एआई चैटबॉट का उपयोग करते हैं, कुल मिलाकर 7 प्रतिशत और दिन के हिसाब से बढ़ते हैं। यह जनसांख्यिकीय-कल के अधिकारियों, निवेशकों और निर्णय-निर्माताओं-को सूचना प्रणाली द्वारा आकार दिया जा रहा है जो सटीकता को प्राथमिकता नहीं देते हैं।

टेक उद्योग की प्रतिक्रिया पर्याप्त से कम रही है। कंपनियां ठीक प्रिंट में सटीकता के बारे में अस्वीकरण को दफन करते हुए अपनी एआई क्षमताओं का सामना करती हैं। लेकिन बड़ी भाषा मॉडल की वर्तमान पीढ़ी में मतिभ्रम को हल करना असंभव है।

समाधान पूरी तरह से एआई को छोड़ने के लिए नहीं है। हमें बस इस बात पर पुनर्विचार करने की आवश्यकता है कि सिस्टम कैसे तैनात किए जाते हैं। हमें एआई व्यवसाय मॉडल को छोड़ने की आवश्यकता है जो विश्वसनीय जानकारी की आपूर्ति पर उपयोगकर्ताओं को अपने प्लेटफार्मों के साथ जुड़े रखने को प्राथमिकता देते हैं।

सत्यापित, मानव-निर्मित सामग्री के साथ समाचार प्रश्नों का जवाब देने के लिए मॉडल इंजीनियरिंग मतिभ्रम को समाप्त कर देगी। वह डेटा मौजूद नहीं है, है ना? गलत। केबल न्यूज नेटवर्क रिपोर्ट के हजारों घंटे के बीच, स्थानीय समाचार प्रसारण और रोलिंग कवरेज लगभग किसी भी समाचार का जवाब है जिसे आप मस्टर कर सकते हैं।

आज डलास में मौसम क्या है? 

क्या ट्रम्प ने गोल्फ कोर्स पर धोखा दिया? 

मुझे पिछले महीने से यांकीज़ का घर दिखाओ। 

टेक दिग्गज आवश्यक नियामक ढांचे के लिए प्रगति को रोक नहीं पाएंगे जो पारंपरिक वित्तीय पत्रकारिता के समान जांच के साथ एआई-जनित समाचारों का इलाज करते हैं। हालांकि, स्थानीय और राष्ट्रीय समाचार प्रसारण अपने सर्वोत्तम हितों के भीतर अच्छी तरह से मजबूत तथ्य-जाँच तंत्रों को तैनात करने के लिए हैं जो एआई की मतिभ्रम समस्या के लिए हल करते हैं। और जब हम एआई की गति के साथ ब्रॉडकास्ट की पत्रकारिता की अखंडता से शादी करते हैं, तो हम समाचारों में विश्वास का पुनर्निर्माण करना शुरू कर सकते हैं, संशयवादियों को परिवर्तित कर सकते हैं और यहां तक ​​कि एक गो-टू टेक प्लेटफॉर्म (या कुछ) को स्केल कर सकते हैं, जिस पर उपभोक्ता पर भरोसा कर सकते हैं।

यह देखते हुए कि एआई चैटबॉट्स विरासत प्रकाशनों के बाहर विभिन्न स्रोतों से उत्तर कैसे खींचते हैं, सबसे अच्छा मामला परिदृश्य यह है कि यह जानकारी संपादकीय हो जाती है। लेकिन एक अधिक संभावना वास्तविकता यह है कि इन बॉट्स द्वारा सामने आने वाली गलतफहमी हमारे पहले से ही अस्थिर मीडिया परिदृश्य को जारी रखती है।

जबकि एल्गोरिदम में सुधार जारी रहेगा, समाचार में विश्वास कुछ ऐसा है जिसे निर्मित नहीं किया जा सकता है। हमें ऐसे मॉडल डिजाइन करने की आवश्यकता है जो सत्यापित, मानव-निर्मित सामग्री के साथ समाचार प्रश्नों का जवाब देते हैं-यह एक उद्योग में विश्वास को बहाल करने का हमारा अंतिम मौका हो सकता है जिसे बुरी तरह से इसकी आवश्यकता है।

सीएएम मूल्य सह-संस्थापक और सीईओ है नेतृत्व कहानी, एक व्यक्तिगत समाचार स्ट्रीमिंग प्लेटफॉर्म। 

स्रोत लिंक

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें