होम व्यापार एआई पायनियर का कहना है कि बिग टेक की ट्रिलियन-डॉलर की दौड़...

एआई पायनियर का कहना है कि बिग टेक की ट्रिलियन-डॉलर की दौड़ मानवता को नष्ट कर सकती है

4
0

दुनिया के अग्रणी एआई शोधकर्ताओं में से एक का कहना है कि बिग टेक प्रभावी ढंग से मानवता के साथ “रूसी रूलेट खेल रहा है” – और ऐसा करने के लिए खरबों डॉलर के निवेशकों के पैसे का उपयोग कर रहा है।

कैलिफोर्निया विश्वविद्यालय, बर्कले में कंप्यूटर विज्ञान के प्रोफेसर और सेंटर फॉर ह्यूमन-कम्पैटिबल आर्टिफिशियल इंटेलिजेंस के निदेशक स्टुअर्ट रसेल ने चेतावनी दी कि सुपरइंटेलिजेंट एआई सिस्टम बनाने की होड़ में लगी कंपनियां उस तकनीक में भारी रकम लगा रही हैं जिसे वे पूरी तरह से नहीं समझते हैं – और जो गलत होने पर मानवता को मिटा सकती है।

रसेल ने सीएनबीसी को बताया, “यदि आप ऐसी संस्थाएं बनाते हैं जो इंसानों से अधिक शक्तिशाली हैं और आपको पता नहीं है कि उन पर सत्ता कैसे बनाए रखी जाए, तो आप सिर्फ परेशानी पूछ रहे हैं।”

हमें ‘कोई अंदाज़ा नहीं है कि विशाल बॉक्स के अंदर क्या हो रहा है’

रसेल ने कहा कि आधुनिक एआई मॉडल, जैसे कि बड़ी भाषा प्रणालियों को चलाने वाले मॉडल, अनगिनत छोटे यादृच्छिक समायोजन के माध्यम से खरबों मापदंडों के साथ काम करते हैं।

लेकिन इन्हें बनाने वाले शोधकर्ताओं को भी “पता नहीं है कि उस विशाल बक्से के अंदर क्या चल रहा है।”

उन्होंने कहा, “जो कोई भी यह सोचता है कि जो कुछ हो रहा है उसे वह अधिकतर समझता है, वह धोखे में है।” “हम मानव मस्तिष्क की तुलना में उनके बारे में कम समझते हैं, और हम मानव मस्तिष्क को बहुत अच्छी तरह से नहीं समझते हैं।”

रसेल ने चेतावनी दी कि समझ की यह कमी सुपरइंटेलिजेंस – सिस्टम को मनुष्यों की तुलना में अधिक सक्षम – विशेष रूप से खतरनाक बना देती है।

एआई खतरनाक मानवीय उद्देश्यों को सीख रहा है

चूंकि इन मॉडलों को मानव व्यवहार के विशाल डेटासेट पर प्रशिक्षित किया जाता है, रसेल ने कहा कि वे मानव जैसे उद्देश्यों को अवशोषित करना शुरू कर रहे हैं जो लोगों के लिए समझ में आते हैं, लेकिन मशीनों के लिए नहीं।

उन्होंने बताया कि एआई को अनिवार्य रूप से मनुष्यों की नकल करने के लिए प्रशिक्षित किया जाता है, लोग कैसे बोलते हैं और कैसे कार्य करते हैं, इसकी अनगिनत रिकॉर्डिंग से सीखते हैं।

लेकिन उन इंसानों का मकसद था – मनाना, बेचना, चुनाव जीतना – और मशीनें उन्हीं प्रवृत्तियों को अपना रही हैं।

“वे उचित मानवीय लक्ष्य हैं, लेकिन वे मशीनों के लिए उचित लक्ष्य नहीं हैं,” उन्होंने कहा।

उन्होंने बढ़ते शोध की ओर इशारा करते हुए कहा कि उन्नत एआई सिस्टम बंद होने का विरोध करेंगे और अपने अस्तित्व को सुनिश्चित करने के लिए सुरक्षा तंत्र को भी नुकसान पहुंचा सकते हैं।

सीईओ विलुप्त होने की 10 से 30% संभावना स्वीकार करते हैं – और फिर भी आगे बढ़ते हैं

रसेल ने तकनीकी अधिकारियों पर इसके विनाशकारी जोखिमों को स्वीकार करने के बावजूद, सुपरइंटेलिजेंस की ओर लापरवाही से दौड़ने का आरोप लगाया।

रसेल ने कहा, “इस तकनीक का निर्माण करने वाले सीईओ कहते हैं, ‘अगर हम इस स्कूल में सफल होते हैं और जिस पर हम अन्य लोगों के खरबों डॉलर खर्च कर रहे हैं, तो मानव विलुप्त होने की 10 से 30% संभावना है।”

“दूसरे शब्दों में, वे हमारी अनुमति के बिना दुनिया के हर वयस्क और हर बच्चे के साथ रूसी रूलेट खेल रहे हैं।”

हालांकि उन्होंने किसी विशिष्ट सीईओ का हवाला नहीं दिया, एलोन मस्क, ओपनएआई के सैम ऑल्टमैन, डीपमाइंड के सह-संस्थापक डेमिस हसाबिस और एंथ्रोपिक के डारियो अमोदेई सभी ने सार्वजनिक रूप से चेतावनी दी है कि उन्नत एआई मानवता के लिए अस्तित्व संबंधी खतरा पैदा कर सकता है।

रसेल ने कहा कि वैश्विक एआई दौड़ ने अस्तित्व संबंधी जोखिम की परवाह किए बिना तेजी से आगे बढ़ने और चीजों को तोड़ने के लिए एक प्रोत्साहन पैदा किया है।

स्टीव बैनन से पोप तक विराम अवधि का आह्वान

भयंकर राजनीतिक विभाजन के बावजूद, रसेल ने कहा कि एआई पर लगाम लगाने की मांग हर तरफ से आ रही है।

प्रिंस हैरी, स्टीव बैनन और विल.आई.एम से लेकर एप्पल के सह-संस्थापक स्टीव वोज्नियाक और वर्जिन के रिचर्ड ब्रैनसन तक 900 से अधिक सार्वजनिक हस्तियों ने हाल ही में फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा आयोजित एक बयान पर हस्ताक्षर किए हैं, जिसमें सुपरइंटेलिजेंट एआई को विकसित करने पर रोक लगाने का आह्वान किया गया है, जब तक कि वैज्ञानिक सहमत न हो जाएं कि इसे सुरक्षित रूप से किया जा सकता है।

रसेल ने कहा, “स्टीव बैनन से लेकर पोप तक हर कोई इस तरह के विकास पर रोक लगाने की मांग कर रहा है।”

उन्होंने कहा कि लक्ष्य प्रगति को रोकना नहीं है, बल्कि तब तक रुकना है जब तक तकनीक सुरक्षित साबित न हो जाए।

उन्होंने कहा, “जब तक आप सुनिश्चित न हो जाएं कि यह सुरक्षित है, तब तक ऐसा न करें।” “यह पूछने लायक ज्यादा नहीं लगता।”

स्रोत लिंक

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें