- Microsoft AI के सीईओ मुस्तफा सुलेमैन ने चेतावनी दी है कि एआई चैटबॉट्स प्रभावी रूप से चेतना की नकल कर सकते हैं।
- यह सिर्फ एक भ्रम होगा, लेकिन एआई के लिए भावनात्मक संलग्नक बनाने वाले लोग एक बड़ी समस्या हो सकती हैं।
- सुलेमन का कहना है कि यह एआई का वर्णन करना एक गलती है जैसे कि इसमें गंभीर संभावित परिणामों के साथ भावनाएं या जागरूकता है।
एआई कंपनियां अपनी कृतियों को बढ़ाने वाली कंपनियों को परिष्कृत एल्गोरिदम को अच्छी तरह से जीवित और जागरूक कर सकती हैं। कोई सबूत नहीं है कि वास्तव में ऐसा ही है, लेकिन Microsoft AI के सीईओ मुस्तफा सुलेमैन चेतावनी दे रहे हैं कि यहां तक कि सचेत एआई में विश्वास को प्रोत्साहित करने के लिए भी गंभीर परिणाम हो सकते हैं।
सुलेमन का तर्क है कि वह “प्रतीत होता है कि सचेत एआई” (एससीएआई) जल्द ही काम कर सकता है और इतनी आश्वस्त रूप से जीवित हो सकता है कि उपयोगकर्ताओं की बढ़ती संख्या को पता नहीं चलेगा कि भ्रम कहां समाप्त होता है और वास्तविकता शुरू होती है।
वह कहते हैं कि कृत्रिम बुद्धिमत्ता जल्दी से भावनात्मक रूप से प्रेरक हो रही है ताकि लोगों को यह विश्वास हो सके कि यह भावुक है। यह जागरूकता के बाहरी संकेतों की नकल कर सकता है, जैसे कि स्मृति, भावनात्मक मिररिंग, और यहां तक कि स्पष्ट सहानुभूति, एक तरह से, जो लोग उन्हें भावुक प्राणियों की तरह व्यवहार करना चाहते हैं। और जब ऐसा होता है, तो वह कहता है, चीजें गड़बड़ हो जाती हैं।
“प्रतीत होता है कि सचेत एआई का आगमन अपरिहार्य और अवांछित है,” सुलेमैन लिखते हैं। “इसके बजाय, हमें एआई के लिए एक दृष्टि की आवश्यकता है जो अपने भ्रम के शिकार के बिना एक सहायक साथी के रूप में अपनी क्षमता को पूरा कर सकता है।”
हालांकि यह औसत व्यक्ति के लिए एक समस्या की तरह नहीं लग सकता है जो सिर्फ एआई को ईमेल लिखने या रात के खाने की योजना बनाने में मदद करना चाहता है, सुलेमैन का दावा है कि यह एक सामाजिक मुद्दा होगा। जब कुछ प्रामाणिक या प्रदर्शनकारी होता है तो मनुष्य हमेशा यह बताने में अच्छा नहीं होता है। इवोल्यूशन और परवरिश ने हम में से अधिकांश को यह विश्वास करने के लिए प्रेरित किया है कि कुछ ऐसा जो सुनने, समझने और प्रतिक्रिया करने के लिए लगता है, हम जितना सचेत हैं।
एआई उन सभी बक्सों की जांच कर सकता है, जो बिना भावुक हो सकते हैं, हमें ‘एआई साइकोसिस’ के रूप में जाना जाता है। समस्या का एक हिस्सा यह हो सकता है कि ‘एआई’ जैसा कि निगमों द्वारा संदर्भित किया गया है, अभी एक ही नाम का उपयोग करता है, लेकिन पिछले सौ वर्षों से विज्ञान कथा में दर्शाए गए वास्तविक आत्म-जागरूक बुद्धिमान मशीनों से कोई लेना-देना नहीं है।
Suleyman उन मामलों की बढ़ती संख्या का हवाला देता है जहां उपयोगकर्ता चैटबॉट के साथ विस्तारित बातचीत के बाद भ्रम संबंधी विश्वास बनाते हैं। उस से, वह एक समय की एक डायस्टोपियन दृष्टि को चित्रित करता है जब पर्याप्त लोगों को एआई नागरिकता की वकालत करने और प्रौद्योगिकी के आसपास वास्तविक मुद्दों के बारे में अधिक जरूरी सवालों की अनदेखी करने के लिए धोखा दिया जाता है।
“सीधे शब्दों में कहें, तो मेरी केंद्रीय चिंता यह है कि बहुत से लोग एआईएस के भ्रम में विश्वास करना शुरू कर देंगे, जो कि सचेत संस्थाओं के रूप में इतनी दृढ़ता से है कि वे जल्द ही एआई अधिकारों, मॉडल कल्याण और यहां तक कि एआई नागरिकता की वकालत करेंगे,” सुलेमैन लिखते हैं। “यह विकास एआई प्रगति में एक खतरनाक मोड़ होगा और हमारे तत्काल ध्यान देने योग्य है।”
जितना लगता है कि एक ओवर-द-टॉप विज्ञान-फाई तरह की चिंता की तरह लगता है, सुलेमैन का मानना है कि यह एक समस्या है कि हम अभी तक निपटने के लिए तैयार नहीं हैं। वह भविष्यवाणी करता है कि एससीएआई सिस्टम बड़े भाषा के मॉडल का उपयोग करते हुए अभिव्यंजक भाषण, स्मृति और चैट इतिहास के साथ जोड़े गए हैं, कुछ वर्षों में सरफेसिंग शुरू कर सकते हैं। और वे सिर्फ अरब-डॉलर के अनुसंधान बजट के साथ तकनीकी दिग्गजों से नहीं आएंगे, लेकिन एक एपीआई और एक अच्छे संकेत या दो के साथ किसी से भी।
अजीब एआई
Suleyman AI पर प्रतिबंध के लिए नहीं बुला रहा है। लेकिन वह एआई उद्योग से आग्रह कर रहा है कि वह भाषा से बचें जो मशीन चेतना के भ्रम को बढ़ाती है। वह नहीं चाहते कि कंपनियां अपने चैटबॉट्स को मानवशास्त्रीय करें या सुझाव दें कि उत्पाद वास्तव में लोगों के बारे में समझें या परवाह करें।
यह सुलेमैन के लिए एक उल्लेखनीय क्षण है, जिन्होंने डीपमाइंड और इन्फ्लेक्शन एआई की सह-स्थापना की। इनफ्लेक्शन में उनके काम ने विशेष रूप से एआई चैटबॉट को नकली सहानुभूति और साहचर्य पर जोर देने के लिए प्रेरित किया और कोपिलॉट के आसपास माइक्रोसॉफ्ट में उनके काम ने भावनात्मक बुद्धिमत्ता की अपनी नकल में भी आगे बढ़ाया।
हालांकि, उन्होंने उपयोगी भावनात्मक बुद्धिमत्ता और संभावित भावनात्मक हेरफेर के बीच एक स्पष्ट रेखा खींचने का फैसला किया है। और वह चाहता है कि लोग याद रखें कि आज एआई उत्पाद वास्तव में अच्छे पीआर के साथ सिर्फ चतुर पैटर्न-मान्यता मॉडल हैं।
“जैसा कि हमें एआई का उत्पादन करना चाहिए जो हमारी भौतिक और मानव दुनिया में मनुष्यों और वास्तविक दुनिया की बातचीत के साथ जुड़ाव को प्राथमिकता देता है, हमें एआई का निर्माण करना चाहिए जो केवल कभी भी एआई के रूप में प्रस्तुत करता है, जो चेतना के मार्करों को कम करते हुए उपयोगिता को अधिकतम करता है,” सुलेमैन लिखते हैं।
“चेतना के अनुकरण के बजाय, हमें एक एआई बनाने पर ध्यान केंद्रित करना चाहिए जो उन लक्षणों से बचता है – जो कि शर्म, अपराध, ईर्ष्या, प्रतिस्पर्धा करने की इच्छा, और इसी तरह के अनुभव, भावनाओं या भावनाओं का दावा नहीं करता है, और इसी तरह। यह दावा करके मानव सहानुभूति सर्किट को ट्रिगर नहीं करना चाहिए कि यह पीड़ित है या यह स्वायत्त रूप से जीने की इच्छा रखता है।”
सुलेमैन ने एआई के साथ भावनात्मक रूप से संबंध बनाने वाले लोगों से पैदा हुए सामाजिक समस्याओं को दूर करने के लिए रेलिंग का आग्रह किया है। उन्नत एआई से असली खतरा यह नहीं है कि मशीनें जागेंगी, लेकिन यह कि हम भूल सकते हैं कि वे नहीं हैं।