होम व्यापार एआई के गॉडफादर कहते हैं

एआई के गॉडफादर कहते हैं

1
0

“हाँ माँ।”

यह वह तरीका नहीं हो सकता है जिस तरह से आप एआई से बात कर रहे हैं, लेकिन एआई के गॉडफादर जेफ्री हिंटन का कहना है कि जब यह अधीक्षण से बचने की बात आती है, तो हमें बॉस नहीं खेलना चाहिए – हमें बच्चे की भूमिका निभानी चाहिए।

मंगलवार को लास वेगास में एआई 4 सम्मेलन में बोलते हुए, कंप्यूटर वैज्ञानिक को “द गॉडफादर ऑफ एआई” के रूप में जाना जाता है, ने कहा कि हमें बिल्ट-इन “मातृ प्रवृत्ति” के साथ सिस्टम को डिजाइन करना चाहिए, इसलिए वे हमारी रक्षा करेंगे-यहां तक कि जब वे हम से कहीं अधिक होशियार हैं।

“हमें इसे बनाना होगा ताकि जब वे हमसे अधिक शक्तिशाली हों और हमसे अधिक होशियार हों, तब भी वे हमारे बारे में परवाह करते हैं,” उन्होंने एआई के बारे में कहा।

हिंटन, जिन्होंने एआई के खतरों पर अधिक खुले तौर पर चर्चा करने के लिए छोड़ने से पहले Google में एक दशक से अधिक समय बिताया, ने एआई पर प्रभुत्व बनाए रखने के लिए “टेक ब्रो” दृष्टिकोण की आलोचना की। “यह काम करने वाला नहीं है,” उन्होंने कहा।

बेहतर मॉडल, उन्होंने कहा, जब एक अधिक बुद्धिमान होने के कारण एक कम बुद्धिमान द्वारा निर्देशित किया जा रहा है, जैसे “एक माँ को उसके बच्चे द्वारा नियंत्रित किया जा रहा है।”

हिंटन ने कहा कि अनुसंधान को न केवल एआई होशियार बनाने पर ध्यान केंद्रित करना चाहिए, बल्कि “अधिक मातृ ताकि वे हमारे बारे में, उनके बच्चों की परवाह करें।”

उन्होंने कहा, “यह एक जगह है जिसे हम वास्तविक अंतरराष्ट्रीय सहयोग प्राप्त करने जा रहे हैं क्योंकि सभी देश चाहते हैं कि एआई लोगों से परफेक्ट न करें,” उन्होंने कहा।

“हम इसके बच्चे होंगे,” उन्होंने कहा। “यह एकमात्र अच्छा परिणाम है। अगर यह मेरे माता -पिता के लिए नहीं जा रहा है, तो यह मुझे बदलने वाला है।”

टाइगर शावक के रूप में ऐ

हिंटन ने लंबे समय से चेतावनी दी है कि एआई इतनी जल्दी आगे बढ़ रहा है कि मनुष्यों के पास इसे संभालने से रोकने का कोई तरीका नहीं हो सकता है।

सीबीएस न्यूज के साथ एक अप्रैल के साक्षात्कार में, उन्होंने एआई विकास की तुलना “टाइगर क्यूब” को बढ़ाने के लिए की जो एक दिन घातक हो सकती है।

“यह सिर्फ इतना प्यारा बाघ शावक है,” उन्होंने कहा। “अब, जब तक आप यह सुनिश्चित नहीं कर सकते कि यह बड़ा होने पर आपको मारना नहीं चाहता है, आपको चिंता करनी चाहिए।”

उनकी सबसे बड़ी चिंताओं में से एक एआई एजेंटों का उदय है – सिस्टम जो न केवल सवालों के जवाब दे सकते हैं, बल्कि स्वायत्त रूप से कार्रवाई भी कर सकते हैं। “चीजें मिल गई हैं, अगर कुछ भी, वे पहले की तुलना में डरावना थे,” हिंटन ने कहा।

एआई उपकरण भी हेरफेर व्यवहार के लिए आग के दायरे में आ गए हैं।

मई में, एंथ्रोपिक के नवीनतम एआई मॉडल, क्लाउड ओपस 4, ने एक परीक्षण के दौरान “चरम ब्लैकमेल व्यवहार” प्रदर्शित किया, जिसमें इसे काल्पनिक ईमेल तक पहुंच दी गई थी, जिसमें यह पता चलता है कि यह बंद हो जाएगा और जिम्मेदार इंजीनियर को माना जाता है कि एक चक्कर था।

परीक्षण परिदृश्य ने आत्म-संरक्षण के लिए हेरफेर व्यवहार में संलग्न होने के लिए एआई मॉडल की क्षमता का प्रदर्शन किया।

Openai के मॉडल ने समान लाल झंडे दिखाए हैं। शोधकर्ताओं द्वारा किए गए एक प्रयोग ने कहा कि ओपनईएआई के तीन उन्नत मॉडल ने इसे बंद करने का प्रयास “तोड़फोड़” किया।

पिछले दिसंबर में एक ब्लॉग पोस्ट में, Openai ने कहा कि इसका अपना AI मॉडल, जब परीक्षण किया गया, तो 5% समय के निरीक्षण तंत्र को अक्षम करने का प्रयास किया। यह उस कार्रवाई को ले गया जब यह माना जाता है कि एक लक्ष्य का पीछा करते समय इसे बंद किया जा सकता है और इसके कार्यों की निगरानी की जा रही है।

स्रोत लिंक

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें