होम तकनीकी एआई एजेंटों के बारे में प्रचार को वास्तविकता से आगे नहीं बढ़ने...

एआई एजेंटों के बारे में प्रचार को वास्तविकता से आगे नहीं बढ़ने दें

51
0

चलो “एजेंट” शब्द के साथ शुरू करते हैं। अभी, यह सरल लिपियों से लेकर परिष्कृत एआई वर्कफ़्लो तक सब कुछ पर थप्पड़ मारा जा रहा है। कोई साझा परिभाषा नहीं है, जो कंपनियों के लिए बुनियादी स्वचालन को बाजार में बहुत अधिक उन्नत के रूप में बाजार में छोड़ देती है। इस तरह का “एजेंटवॉशिंग” केवल ग्राहकों को भ्रमित नहीं करता है; यह निराशा को आमंत्रित करता है। हमें आवश्यक रूप से एक कठोर मानक की आवश्यकता नहीं है, लेकिन हमें इस बारे में स्पष्ट अपेक्षाओं की आवश्यकता है कि इन प्रणालियों को क्या करना है, वे कैसे स्वायत्त रूप से काम करते हैं, और वे कितना मज़बूती से प्रदर्शन करते हैं।

और विश्वसनीयता अगली बड़ी चुनौती है। आज के अधिकांश एजेंट बड़े भाषा मॉडल (एलएलएम) द्वारा संचालित हैं, जो संभाव्य प्रतिक्रियाएं उत्पन्न करते हैं। ये सिस्टम शक्तिशाली हैं, लेकिन वे अप्रत्याशित भी हैं। वे चीजों को बना सकते हैं, ट्रैक से दूर जा सकते हैं, या सूक्ष्म तरीकों से विफल हो सकते हैं – खासकर जब उन्हें मल्टीस्टेप कार्यों को पूरा करने के लिए कहा जाता है, बाहरी उपकरणों में खींचकर और एलएलएम प्रतिक्रियाओं को एक साथ जगाता है। एक हालिया उदाहरण: एक लोकप्रिय एआई प्रोग्रामिंग सहायक, कर्सर के उपयोगकर्ताओं को एक स्वचालित समर्थन एजेंट द्वारा बताया गया था कि वे एक से अधिक डिवाइस पर सॉफ़्टवेयर का उपयोग नहीं कर सकते थे। व्यापक शिकायतें और उपयोगकर्ताओं को उनकी सदस्यता रद्द करने की रिपोर्टें थीं। लेकिन यह पता चला कि नीति मौजूद नहीं थी। एआई ने इसका आविष्कार किया था।

एंटरप्राइज सेटिंग्स में, इस तरह की गलती अपार क्षति पैदा कर सकती है। हमें एलएलएम के इलाज को स्टैंडअलोन उत्पादों के रूप में बंद करने और उनके चारों ओर पूर्ण सिस्टम का निर्माण शुरू करने की आवश्यकता है – ऐसे सिस्टम जो अनिश्चितता के लिए खाते हैं, आउटपुट की निगरानी करते हैं, लागतों का प्रबंधन करते हैं, और सुरक्षा और सटीकता के लिए रेलिंग में परत करते हैं। ये उपाय यह सुनिश्चित करने में मदद कर सकते हैं कि आउटपुट उपयोगकर्ता द्वारा व्यक्त आवश्यकताओं का पालन करता है, सूचना तक पहुंच के बारे में कंपनी की नीतियों का पालन करता है, गोपनीयता के मुद्दों का सम्मान करता है, और इसी तरह। AI21 सहित कुछ कंपनियां (जिसे मैंने cofounded किया है और जिसे Google से फंडिंग मिली है), पहले से ही उस दिशा में आगे बढ़ रही हैं, अधिक जानबूझकर, संरचित आर्किटेक्चर में भाषा मॉडल लपेट रही हैं। हमारे नवीनतम लॉन्च, Maestro, को एंटरप्राइज़ विश्वसनीयता के लिए डिज़ाइन किया गया है, जो कि LLM को कंपनी के डेटा, सार्वजनिक जानकारी और अन्य उपकरणों के साथ मिला है ताकि भरोसेमंद आउटपुट सुनिश्चित किया जा सके।

फिर भी, यहां तक ​​कि सबसे स्मार्ट एजेंट एक वैक्यूम में उपयोगी नहीं होगा। एजेंट मॉडल को काम करने के लिए, अलग -अलग एजेंटों को निरंतर मानव पर्यवेक्षण के बिना सहयोग करने (अपनी यात्रा की बुकिंग, मौसम की जाँच करना, अपनी व्यय रिपोर्ट प्रस्तुत करना) की आवश्यकता है। यह वह जगह है जहाँ Google का A2A प्रोटोकॉल आता है। यह एक सार्वभौमिक भाषा है जो एजेंटों को साझा करने देता है कि वे क्या कर सकते हैं और कार्यों को विभाजित कर सकते हैं। सिद्धांत रूप में, यह एक महान विचार है।

व्यवहार में, A2A अभी भी कम है। यह परिभाषित करता है कि एजेंट एक -दूसरे से कैसे बात करते हैं, लेकिन न कि वे वास्तव में क्या मतलब है। यदि एक एजेंट कहता है कि यह “हवा की स्थिति” प्रदान कर सकता है, तो दूसरे को यह अनुमान लगाना होगा कि क्या यह उड़ान मार्ग पर मौसम का मूल्यांकन करने के लिए उपयोगी है। एक साझा शब्दावली या संदर्भ के बिना, समन्वय भंगुर हो जाता है। हमने इस समस्या को वितरित कंप्यूटिंग में पहले देखा है। इसे पैमाने पर हल करना तुच्छ से दूर है।

स्रोत लिंक

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें