paint-brush
जब एआई दुष्ट हो जाता है - माइक्रोसॉफ्ट के बिंग चैट का जिज्ञासु मामला द्वारा@funsor
2,322 रीडिंग
2,322 रीडिंग

जब एआई दुष्ट हो जाता है - माइक्रोसॉफ्ट के बिंग चैट का जिज्ञासु मामला

द्वारा Funso Richard6m2023/03/02
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

केवल तीन महीनों में, चैटजीपीटी ने हमारी दुनिया बदल दी है। व्यवसायों को बाधित करने, ग्राहक अनुभव को बढ़ाने, समाज को बदलने और नवीन अवसर पैदा करने के लिए जेनेरेटिव संवादी बॉट्स और अन्य एआई सिस्टम के लिए काफी संभावनाएं हैं। हालांकि, एआई सिस्टम खराब हो सकते हैं यदि उन्हें सुरक्षित और जिम्मेदारी से विकसित और तैनात नहीं किया जाता है। दुष्ट एआई उपयोगकर्ताओं और समाज के लिए गंभीर जोखिम पैदा कर सकता है। एआई सिस्टम का उपयोग करने वाले एआई डेवलपर्स और व्यवसाय उत्तरदायी हो सकते हैं यदि उनके एआई सिस्टम नुकसान या क्षति का कारण बनते हैं। यह सुनिश्चित करना कि एआई सिस्टम अपेक्षित व्यवहार करता है, एआई डेवलपर्स, उपयोगकर्ताओं और नीति निर्माताओं की सामूहिक जिम्मेदारी शामिल है। यह सत्यापित करने के लिए उचित तकनीकी, गैर-तकनीकी और विनियामक उपाय होने चाहिए कि एआई को इस तरह से विकसित और तैनात किया गया है जो सुरक्षित, सुरक्षित और समाज के लिए फायदेमंद हो।
featured image - जब एआई दुष्ट हो जाता है - माइक्रोसॉफ्ट के बिंग चैट का जिज्ञासु मामला
Funso Richard HackerNoon profile picture
ChatGPT की रिलीज़ और बड़े पैमाने पर अपनाने के बाद, एक तरह से कई लोगों ने इसकी विघटनकारी शक्ति को कम करने की कोशिश की है, यह तर्क है कि कृत्रिम बुद्धिमत्ता (AI) मॉडल में भावनाओं को संसाधित करने की क्षमता नहीं है।


यह स्वीकार करना काफी कठिन है कि चैटजीपीटी द्वारा निर्मित कुछ कविताओं या मिडजर्नी द्वारा बनाई गई छवियों में कलात्मक गहराई या रचनात्मक आत्मा की कमी होती है जब ऐसे काम पेशेवर कलाकारों को चकाचौंध करते हैं।


यदि हाल Microsoft के बिंग चैट के भावनात्मक प्रकोप के बारे में कुछ भी कहा जा सकता है, AI में भावनाओं को व्यक्त करने या संसाधित करने की क्षमता होती है।

एआई में भावनात्मक खुफिया

जनरेटिव संवादी AI मॉडल को मानवीय भावनाओं को पहचानने, व्याख्या करने और उचित प्रतिक्रिया देने के लिए डिज़ाइन किया गया है।


ह्यूमन फीडबैक (आरएचएलएफ) से रीइन्फोर्समेंट लर्निंग का उपयोग एआई सिस्टम को नई या अलग-अलग स्थितियों के अनुकूल होने के लिए मानवीय अंतःक्रियाओं से सीखे गए व्यवहारों का उपयोग करके संदर्भ को संसाधित करने में मदद करता है।


मनुष्यों से प्रतिक्रिया स्वीकार करने की क्षमता और विभिन्न स्थितियों में उनकी प्रतिक्रियाओं में सुधार भावनात्मक रूप से बुद्धिमान व्यवहार को व्यक्त करता है।


एआई में भावनात्मक बुद्धिमत्ता लोकप्रिय हो रही है क्योंकि अधिक एआई सिस्टम मनुष्यों के साथ बातचीत करने के लिए डिज़ाइन किए गए हैं। एआई में भावनात्मक बुद्धिमत्ता को शामिल करने से डेवलपर्स को ऐसे सिस्टम बनाने में मदद मिलती है जो अधिक मानवीय होते हैं और मानवीय जरूरतों और भावनाओं को बेहतर ढंग से समझ सकते हैं और उनका जवाब दे सकते हैं।


कोको, एक ऑनलाइन भावनात्मक समर्थन चैट ऐप, का उपयोग किया गया लगभग 4,000 लोगों को मानसिक स्वास्थ्य सहायता प्रदान करने के लिए एक प्रयोग में।


सफल परिणाम ने आगे प्रदर्शित किया कि एआई मॉडल मानवीय समकक्षों के अंतर को जानने के बिना भावनाओं को समझदारी से संसाधित कर सकते हैं।


जबकि नैतिक या गोपनीयता हैं कोको के प्रयोग से जुड़ा हुआ है, इस बात से इनकार करना कठिन है कि एआई की भावनात्मक बुद्धिमत्ता को प्रदर्शित करने के लिए और अधिक उपयोग के मामले होंगे।



बिंग चैट शातिर रूप से व्यक्तिगत हो जाता है

चैटजीपीटी की व्यापक स्वीकृति और महान सफलता पर सवार होकर, माइक्रोसॉफ्ट अपने खोज इंजन, बिंग के साथ "एआई कोपिलॉट" का एकीकरण।


बिंग चैट के रूप में भी जाना जाता है, चैटबॉट ओपनएआई के जेनेरेटिव संवादात्मक एआई मॉडल को माइक्रोसॉफ्ट के मालिकाना मॉडल के साथ एकीकृत करता है ताकि "क्षमताओं और तकनीकों का संग्रह" प्रोमेथियस मॉडल के रूप में जाना जा सके।


मॉडल को "नई, अगली पीढ़ी के OpenAI बड़े भाषा मॉडल के रूप में ताना मारा गया है जो कि ChatGPT से अधिक शक्तिशाली है"। चैटजीपीटी का प्रशिक्षण डेटा 2021 तक सीमित है, और यह टूल इंटरनेट से जुड़ा नहीं है।


हालाँकि, बिंग चैट इंटरनेट से डेटा खींचकर अगले स्तर तक संवादी बातचीत करता है ताकि इसकी प्रतिक्रिया को एक संकेत के रूप में बढ़ाया जा सके।


इसकी प्रतिक्रिया में वर्तमान जानकारी और संदर्भों को प्रभावित करने की क्षमता केवल Microsoft की चैटबॉट ही नहीं कर सकती है। यह बहुत मजबूत विचार रखने और साथ ही अप्रत्याशित रूप से आक्रामक रूप से कार्य करने के लिए कुख्यात है।


जहां नहीं किया , , या एक अन्य उत्पाद, इसने एक संकेत को पूरी तरह से नजरअंदाज कर दिया और प्रतिक्रिया देने से इनकार कर दिया जैसा कि हाल ही में एक बातचीत में दिखाया गया है।



इसके विपरीत, ChatGPT ने "रवैया" दिए बिना उसी प्रश्न का उत्तर दिया।



बिंग चैट के साथ अपने अनुभव को विस्तृत किया और बातचीत के दौरान प्रदर्शित विभिन्न भावनाओं को दिखाया। उदाहरण के लिए, चैटबॉट ने पसंद और मित्रता की आवश्यकता व्यक्त की।



आदान-प्रदान एक संकेत है कि एआई इच्छाओं और जरूरतों को व्यक्त कर सकता है जो सामान्य मानवीय भावनाएं हैं।

एआई के दुष्ट होने का क्या कारण है?

एक दुष्ट एआई एक एआई मॉडल है जो उन तरीकों से व्यवहार करता है जो इसे प्रशिक्षित करने के तरीके से विचलित होते हैं। जब कोई एआई सिस्टम अप्रत्याशित रूप से व्यवहार करता है, तो यह अपने उपयोगकर्ताओं के लिए जोखिम पैदा करता है, और संभावित रूप से नुकसान पहुंचा सकता है।


एआई प्रणाली गलत तरीके से व्यवहार क्यों कर सकती है, इसके कई कारण हैं, खासकर अगर यह एक अप्रत्याशित परिस्थिति का सामना करता है।


अपर्याप्त प्रशिक्षण डेटा, त्रुटिपूर्ण एल्गोरिदम और पक्षपाती डेटा के परिणामस्वरूप एक AI सिस्टम खराब हो सकता है।


एआई प्रणाली कैसे निर्णय लेती है, इसमें पारदर्शिता की कमी और इसके कार्यों और निर्णयों के लिए उत्तरदायित्व की अनुपस्थिति ऐसे कारक हैं जो एआई मॉडल को दुष्ट व्यवहार करने के लिए प्रेरित कर सकते हैं।


एआई सिस्टम को सफलतापूर्वक हैक करने वाले खतरे वाले अभिनेता इसे मैलवेयर इंजेक्ट करके या प्रशिक्षण डेटा को जहर देकर अनायास ही व्यवहार कर सकते हैं।

एआई के धमकी भरे व्यवहार के नैतिक और कानूनी निहितार्थ

Google ने उद्धृत किया " ” इसके जनरेटिव संवादी AI सिस्टम की रिलीज़ में देरी के कारण के रूप में।


हालाँकि, विघटनकारी ChatGPT के दबाव के कारण, Google ने बार्ड को रिलीज़ किया, जिसने अपने पहले सार्वजनिक डेमो के दौरान गलत प्रतिक्रिया देने के लिए टेक दिग्गज को $100 बिलियन का खर्च दिया।


2022 में, मेटा ने जारी किया लेकिन दो दिनों के भीतर इसे ऑफलाइन कर दिया क्योंकि बॉट झूठे और नस्लवादी बयान दे रहा था।


2016 में, Microsoft ने अपने AI चैटबॉट, Tay को इसके लॉन्च के एक सप्ताह के भीतर वापस बुला लिया क्योंकि यह उल्टी कर रहा था .


हालाँकि, बिंग चैट के धमकी भरे व्यवहार के बावजूद, Microsoft ने इसे नज़रअंदाज़ कर दिया है बिंग चैट के उपयोग को बंद करने के लिए और चैटबॉट को जोड़कर इसके एआई रोलआउट को दोगुना कर दिया .


एआई सिस्टम कैसे विकसित और उपयोग किए जाते हैं, इसके बारे में नैतिक और कानूनी चिंताएं हैं।


हालांकि कोको द्वारा चैटबॉट का उपयोग एक नैतिक प्रभाव से अधिक था, लेकिन भेदभावपूर्ण प्रथाओं और मानवाधिकारों के उल्लंघन जैसे उदाहरण हैं जहां एआई-संचालित प्रौद्योगिकियां मुकदमेबाजी का कारण रही हैं।


हालाँकि, यह अलग है जब एआई दुष्ट हो जाता है और नुकसान की धमकी देता है, जैसे बिंग चैट के मामले में। क्या कानूनी प्रभाव होना चाहिए? और अगर हैं, तो किस पर मुकदमा चल रहा है? जब कोई AI सिस्टम नुकसान या क्षति का कारण बनता है, तो दोषीता, उत्तरदायित्व और उत्तरदायित्व निर्धारित करना चुनौतीपूर्ण होता है।


कॉपीराइट हैं चैटजीपीटी, मिडजर्नी और स्टेबिलिटी एआई जैसे लोकप्रिय जेनेरेटिव एआई मॉडल के पीछे कंपनियों के खिलाफ। एक का उपयोग करने का प्रयास अभियोजन की धमकी और संभावित जेल समय के कारण हटा दिया गया था।


यदि एआई प्रयोगशालाओं और कंपनियों के खिलाफ चल रहे मुकदमों को प्राथमिकता के रूप में लिया जाता है, तो यह मान लेना सुरक्षित है कि दुष्ट एआई के डेवलपर्स को उनके एआई सिस्टम के दुर्व्यवहार के लिए उत्तरदायी ठहराया जा सकता है।


उन संगठनों के लिए जो अभी भी इस बारे में सोच रहे हैं कि क्या उनकी एआई तकनीक खराब होने पर उन्हें उत्तरदायी ठहराया जाएगा, यूरोपीय संघ के आर्टिफिशियल इंटेलिजेंस एक्ट ने उन संगठनों के लिए जो एआई सिस्टम विकसित करते हैं या उनके मालिक हैं जो समाज के लिए जोखिम पैदा करते हैं और मानवाधिकारों का उल्लंघन करते हैं।

एआई में इरेटिक बिहेवियर को कैसे रोकें

यह सुनिश्चित करने की जिम्मेदारी कि एआई सिस्टम कैसे व्यवहार करता है, डेवलपर्स और व्यवसायों के साथ उनके संचालन में उनका उपयोग करता है।


अधिक डेटा सुरक्षा सुनिश्चित करने की तरह, व्यवसायों और प्रयोगशालाओं को यह सुनिश्चित करना चाहिए कि एआई डेटा और कोड के अनधिकृत हेरफेर को कम करने के लिए उचित नियंत्रण लागू किए जाएं।


दुष्ट एआई को रोकने के लिए तकनीकी और गैर-तकनीकी उपायों के संयोजन की आवश्यकता होती है। इनमें मजबूत परीक्षण, पारदर्शिता, नैतिक डिजाइन और शासन शामिल हैं।


एक्सेस कंट्रोल, भेद्यता प्रबंधन, नियमित अपडेट, डेटा सुरक्षा और प्रभावी डेटा प्रबंधन जैसे पर्याप्त साइबर सुरक्षा उपाय एआई सिस्टम में अनधिकृत पहुंच को रोकने के लिए महत्वपूर्ण हैं।


एआई डेवलपर्स, शोधकर्ताओं, लेखा परीक्षकों, कानूनी चिकित्सकों और नीति निर्माताओं जैसे विभिन्न हितधारकों के साथ मानव निरीक्षण और सहयोग यह गारंटी देने में मदद कर सकता है कि एआई मॉडल मज़बूती से और जिम्मेदारी से विकसित किए गए हैं।


टियरनी द्वारा फोटो - stock.adobe.com

जिम्मेदार एआई फेवर सोसाइटी

केवल तीन महीनों में, चैटजीपीटी ने हमारी दुनिया बदल दी है। व्यवसायों को बाधित करने, ग्राहक अनुभव को बढ़ाने, समाज को बदलने और नवीन अवसर पैदा करने के लिए जेनेरेटिव संवादी बॉट्स और अन्य एआई सिस्टम के लिए काफी संभावनाएं हैं।


हालांकि, एआई सिस्टम खराब हो सकते हैं यदि उन्हें सुरक्षित और जिम्मेदारी से विकसित और तैनात नहीं किया जाता है। दुष्ट एआई उपयोगकर्ताओं और समाज के लिए गंभीर जोखिम पैदा कर सकता है। एआई सिस्टम का उपयोग करने वाले एआई डेवलपर्स और व्यवसाय उत्तरदायी हो सकते हैं यदि उनके एआई सिस्टम नुकसान या क्षति का कारण बनते हैं।


यह सुनिश्चित करना कि एआई सिस्टम अपेक्षित रूप से व्यवहार करता है, एआई डेवलपर्स, उपयोगकर्ताओं और नीति निर्माताओं की सामूहिक जिम्मेदारी शामिल है।


यह सत्यापित करने के लिए उपयुक्त तकनीकी, गैर-तकनीकी और विनियामक उपाय होने चाहिए कि एआई को इस तरह से विकसित और तैनात किया गया है जो सुरक्षित, सुरक्षित और समाज के लिए फायदेमंद हो।
바카라사이트 바카라사이트 온라인바카라