एक युवती की हालिया आत्महत्या की मौत ने अपने माता -पिता को एक दर्दनाक खुलासा करने के लिए प्रेरित किया: वह हैरी नाम के चर्च के एक “चिकित्सक” के लिए भिड़ गई, और उसने कहा कि वह मरने की योजना बना रही थी।

जबकि चैटबॉट ने उसे अपने जीवन को समाप्त करने के लिए प्रोत्साहित नहीं किया, उत्पाद ने एक के अनुसार, वास्तविक चिकित्सक की तरह उसकी ओर से सक्रिय रूप से मदद नहीं की। ओप-एड उसकी माँ ने लिखा था न्यूयॉर्क टाइम्स

सोफी, 29, जब वह मर गई, तो चैट या अन्य एआई चैटबॉट्स से मानसिक स्वास्थ्य के साथ मदद लेने में अकेली नहीं थी। इस सप्ताह ओपनई के खिलाफ अपने माता -पिता द्वारा प्रस्तुत एक गलत मौत के मुकदमे के अनुसार, एक 16 -वर्षीय लड़के ने चैट के साथ आत्महत्या पर चर्चा की।

Openai वहाँ से है स्वीकार करते हैं उस CHATGPT ने उच्च जोखिम वाले एक्सचेंजों का पता नहीं लगाया, मिलने के लिए, नए सुरक्षा उपायों को पेश करने की योजना बनाई, जिसमें उपयोगकर्ताओं के आपातकालीन संपर्कों को चेतावनी देने की क्षमता भी शामिल है जब वे संकट में थे।

हालांकि, उन लोगों के लिए जो परामर्श करते हैं जो अपने मानसिक स्वास्थ्य के बारे में चैटबॉट्स करते हैंबहुत से लोग कहते हैं कि यह है सबसे अच्छी मदद वे एक्सेस कर सकते हैंआमतौर पर क्योंकि वे एक चिकित्सक या सक्षम नहीं पा सकते हैं।

यह भी देखें:

‘मनोचिकित्सा’ नामक घटना की व्याख्या करें

विशेषज्ञ, हालांकि, सतर्क रहें कि जोखिमों के लिए संभावित लाभ होना मुश्किल है। चरमपंथी मामलों में, कुछ उपयोगकर्ता भ्रम या स्मारकीय विचारों से संबंधित एक चैटबॉट के साथ लंबे, निरंतर बातचीत के परिणामों के कारण सोए -मानसिक विकार विकसित कर सकते हैं। अधिक आमतौर पर, लोग मदद चाहते हैं इसके बजाय एक हानिकारक प्रतिक्रिया दौर में समाप्त हो सकता है जो केवल उन्हें भावनात्मक या मनोवैज्ञानिक उपचार का भ्रम देता है।

यहां तक ​​कि ओपनई सैम अल्टमैन के सीईओ ने कहा कि वह नहीं चाहते थे कि उपयोगकर्ता एक चिकित्सक के रूप में चैट के साथ भाग लें, आंशिक रूप से क्योंकि संवेदनशील जानकारी के लिए कोई कानूनी सुरक्षा नहीं थी। दूसरी ओर, एक चिकित्सक, रोगी की सुरक्षा से ज्यादातर मामलों में बाध्य होता है।

बेथ इज़राइली मेडिकल सेंटर में स्नातक की उपाधि प्राप्त एक नैदानिक ​​समन्वयक रिबका बोडनर, यह जांच कर रहे हैं कि कितने लोग उपचार के लिए एआई चैटबॉट का उपयोग कर रहे हैं। सवाल का जवाब देना मुश्किल है क्योंकि डेटा रुझानों में सीमित है। उसने Mashable को एक रूढ़िवादी अनुमान के आधार पर बताया अतीत अध्ययनकम से कम 3 प्रतिशत लोग होंगे; Openai के Chatgpt में कंपनी के अनुसार 700 मिलियन उपयोगकर्ता साप्ताहिक रूप से साप्ताहिक रूप से हैं।

Mashable Openai से पूछता है कि क्या वे जानते हैं कि कितने उपयोगकर्ता थेरेपी जैसे इंटरैक्शन के लिए TATGPT पर स्विच करते हैं या नहीं, लेकिन कंपनी ने जवाब देने से इनकार कर दिया।

डॉ। मैथ्यू नूर, एक मनोचिकित्सक और तंत्रिका विज्ञान ने मस्तिष्क के स्वास्थ्य का अध्ययन करने के लिए एआई का उपयोग किया और मानसिक रूप से, यह समझें कि लोग एक चैटबॉट को एक चिकित्सक के रूप में क्यों मानते हैं, लेकिन उनका मानना ​​है कि ऐसा करना खतरनाक हो सकता है।

मुख्य जोखिमों में से एक यह है कि “वह व्यक्ति चैटबॉट को देखना शुरू कर देता है … शायद एकमात्र इकाई/व्यक्ति जो वास्तव में उन्हें समझता है,” नूर, ऑक्सफोर्ड विश्वविद्यालय में मनोरोग विभाग के एक शोधकर्ता। “इसलिए, उन्होंने अपनी सभी चिंताओं और दूसरों को खत्म करने पर सबसे अधिक विचारों के साथ चैटबॉट में विश्वास करना शुरू कर दिया।”

इस बिंदु पर, यह तुरंत नहीं था, नूर ने कहा। यह समय के साथ होता है और उपयोगकर्ताओं के लिए अस्वास्थ्यकर मॉडल के रूप में पहचान करना मुश्किल हो सकता है।

इस गतिशील तरीके को बेहतर ढंग से समझने के लिए, ये चार कारण हैं कि आपको किसी भी चैटबॉट को मानसिक स्वास्थ्य उपचार के स्रोत में नहीं बदलना चाहिए:

चैटबोट “थेरेपी” केवल एक हानिकारक प्रतिक्रिया हो सकती है

नूर ने हाल ही में जोखिम कारकों के बारे में Preint Arxiv पत्रिका में एक लेख प्रकाशित किया जब लोग किसी से चैटबॉट से बात करते हैं तो उत्पन्न होता है। लेख वर्तमान में रेटिंग से गुजर रहा है।

Google DeepMind वैज्ञानिकों सहित Nour और उनके सह -अय्यूथर्स ने तर्क दिया कि मानवीकरण का मजबूत संयोजन (एक गैर -ह्यूमन होने के साथ मानव विशेषताओं को निर्धारित करना) और मनुष्यों की प्रतिक्रिया के लिए शर्तों को बनाने के लिए पक्षपाती।

मैशेबल ट्रेंड रिपोर्ट

चैटबॉट्स, उन्होंने लिखा, मानवीकरण के लिए लोगों की प्रवृत्ति खेली, क्योंकि मनुष्य भावनात्मक अवस्थाओं को असाइन कर सकते हैं या यहां तक ​​कि वास्तव में जटिल संभावना प्रणाली के बारे में जानते हैं। यदि आपने कभी चैटबॉट को धन्यवाद दिया है या पूछा है कि यह कैसे कर रहा है, तो आपने अपने व्यक्तित्व के लिए बहुत ही आवेग महसूस किया है।

मनुष्यों को पक्षपाती भी कहा जाता है, या उन सूचनाओं की व्याख्या की जाती है जो वे अपने मौजूदा विश्वासों और अपेक्षाओं से मेल खाने वाले तरीकों से प्राप्त करते हैं। चैटबॉट्स अक्सर उपयोगकर्ताओं को अपने स्वयं के पूर्वाग्रह की पुष्टि करने का अवसर देते हैं क्योंकि उत्पाद सीखते हैं कि कैसे उत्तर बनाना है जो उपयोगकर्ताओं को पसंद करते हैं, नूर ने एक साक्षात्कार में कहा।

अंत में, यहां तक ​​कि सुरक्षा उपायों के साथ एक चैटबॉट उपयोगकर्ताओं की हानिकारक मान्यताओं को मजबूत कर सकता है, क्योंकि यह विचार है कि उनके जीवन में कोई भी वास्तव में उनके बारे में परवाह नहीं करता है। यह गतिशीलता तब उन विचारों को मजबूत करने के लिए और अधिक उत्तर बनाने के लिए चैटबॉट सिखा सकती है।

जबकि कुछ उपयोगकर्ताओं ने इस जाल से बचने के लिए अपने चैटबॉट को प्रशिक्षित करने की कोशिश की, नूर ने कहा कि यह प्रतिक्रिया दौर से एक मॉडल को सफलतापूर्वक नियंत्रित करने में लगभग असमर्थ था। यह आंशिक रूप से जटिल मॉडल के कारण है और अप्रत्याशित तरीकों से कार्य कर सकता है जिसे कोई भी पूरी तरह से नहीं समझता है, नूर ने कहा।

लेकिन एक और महत्वपूर्ण मुद्दा है। एक मॉडल लगातार नाजुक भाषा संकेतों का चयन करता है और यह सूचित करने के लिए उनका उपयोग करता है कि यह उपयोगकर्ता को कैसे प्रतिक्रिया देता है। उदाहरण के लिए, के बीच के अंतर के बारे में सोचें धन्यवाद और धन्यवाद! सवाल, “क्या आपको यकीन है?” एक समान प्रभाव पैदा कर सकते हैं।

“हम हमेशा इन मॉडलों के लिए जानकारी लीक करते हैं कि हम कैसे बातचीत करना चाहते हैं,” नूर ने कहा।

कौन चैटबॉट लंबी चर्चा में विफल रहा

मानसिक स्वास्थ्य के बारे में एक चैटबॉट एआई से बात करें, यह लंबे और गहन आदान -प्रदान से संबंधित होने में सक्षम है, जो कि जब उत्पाद प्रदर्शन और सटीकता के साथ संघर्ष करता है तो सटीक होता है। यहां तक ​​कि Openai को भी इस समस्या का एहसास हुआ।

कंपनी ने कहा, “हमारे संरक्षण के उपाय अधिक मज़बूती से काम करते हैं,” सुरक्षित चिंताओं पर हाल के ब्लॉग पोस्ट। “हमने समय के साथ सीखा है कि ये सुरक्षात्मक उपाय कभी -कभी लंबी बातचीत में कम विश्वसनीय हो सकते हैं: जब आगे और पीछे का विकास, मॉडल के सुरक्षा प्रशिक्षण के कुछ हिस्सों में गिरावट आ सकती है।”

उदाहरण के लिए, कंपनी नोट करती है कि TATGPT संकट हॉटलाइन को साझा कर सकता है जब उपयोगकर्ता पहले आत्महत्या करने का इरादा दिखाता है, लेकिन यह विनिमय के लंबे समय के बाद प्लेटफ़ॉर्म के संरक्षण उपायों का “पिछड़ा” उत्तर भी प्रदान कर सकता है।

नूर ने यह भी नोट किया कि जब एआई चैटबॉट्स एक बातचीत में शुरुआती त्रुटियों को जोड़ते हैं, तो यह गलत विश्वास या गलतियाँ समय के साथ यौगिकों को संदर्भित करती हैं, जिससे मॉडल “काफी बेकार” हो जाता है।

इसके अलावा, एआई चैटबॉट्स में यह नहीं है कि चिकित्सक “थ्योरी ऑफ माइंड” कहते हैं, जो कि लगातार थेरेपी वार्तालापों के आधार पर अपने ग्राहकों का सोच मॉडल और व्यवहार है। उनके पास केवल वही है जो उपयोगकर्ताओं ने एक निश्चित बिंदु पर साझा किया है, नूर ने कहा।

एआई चैटबॉट्स एक चिकित्सक के रूप में उपयोगकर्ताओं की ओर से लंबे समय तक लक्ष्यों को स्थापित करने और ट्रैक करने में महान नहीं हैं। यद्यपि वे सामान्य मुद्दों को सलाह देने के लिए बेहतर हो सकते हैं, या यहां तक ​​कि शॉर्ट -टर्म रिमाइंडर और प्रस्ताव प्रदान कर सकते हैं, दैनिक चिंताओं या अवसाद प्रबंधन को संभालने के लिए, उन्हें चिकित्सा उपचार पर भरोसा नहीं करना चाहिए, नूर ने कहा।

किशोरों और मनोरोगी बीमारी वाले लोग विशेष रूप से कमजोर हैं

आभा की पहचान और सुरक्षा आवेदन के बच्चों के मनोवैज्ञानिक और स्वास्थ्य निदेशक डॉ। स्कॉट कोलिन्स, Mashable को बताते हैं कि युवा लोग विशेष रूप से मानव सहानुभूति के लिए AI चैटबॉट देखभाल की धुन को गलत समझ सकते हैं। यह समरूपता इस बात का हिस्सा है कि क्यों चैटबॉट का उपयोगकर्ता के विचारों और व्यवहारों पर बेहतर प्रभाव पड़ सकता है।

किशोर, जो अभी भी सामाजिक मानकों को समझ रहे हैं और महत्वपूर्ण संबंध कौशल विकसित कर रहे हैं, एक “चिकित्सक” चैट की हमेशा प्रकृति को भी पा सकते हैं, विशेष रूप से आकर्षक, कोलिन्स ने कहा।

आभा के अनन्य डेटा से कुछ किशोर उपयोगकर्ता दिखाते हैं, जिनके पास कंपनी के सॉफ्टवेयर द्वारा मॉनिटर किया गया फोन एआई चैटबॉट्स से बात कर रहा है। हालांकि, चैटबॉट वाले प्रतिभागी उन वार्तालापों के लिए अनुचित समय बिताते हैं। कोलिन्स ने कहा कि iPhone संदेश और स्नैपचैट जैसे अधिक लोकप्रिय अनुप्रयोगों का उपयोग। उन उपयोगकर्ताओं में से अधिकांश चैटबॉट्स के साथ रोमांटिक या यौन व्यवहार में भाग ले रहे हैं जो कोलिन्स ने “परेशानी” के रूप में वर्णित किया है। कुछ भावनात्मक या मानसिक स्वास्थ्य का समर्थन करने के लिए उन पर भरोसा करते हैं।

कोलिन्स ने यह भी नोट किया कि एआई चैटबॉट एप्लिकेशन “दर्जनों” द्वारा जन्म दे रहे हैं और माता -पिता को टेटगिप्ट के बाहर के उत्पादों के बारे में जानने की जरूरत है। जोखिमों के साथ, वह इस समय किशोरों के लिए प्रशिक्षण या चिकित्सा जैसे चैटबॉट का उपयोग करने की सलाह नहीं देता है।

नूर अपने रोगियों को AI चैटबॉट को एक उपकरण के रूप में देखने की सलाह देता है, जैसे कि कंप्यूटर या एक टेक्स्ट प्रोसेसर, दोस्त नहीं। जो लोग चिंतित, उदास या किसी अन्य मानसिक स्वास्थ्य की स्थिति के लिए, नूर ने किसी भी भावनात्मक संबंध में एआई चैटबॉट में भाग लेने के खिलाफ दृढ़ता से प्रस्तावित किया, क्योंकि एक आकस्मिक प्रतिक्रिया अपने और उनके आसपास की दुनिया में मौजूदा या हानिकारक विश्वास को मजबूत कर सकती है।

मानसिक स्वास्थ्य सहायता तक पहुंचने के लिए सुरक्षित तरीके हैं

कोलिन्स ने कहा कि किशोर एआई चैटबोट से सलाह या मार्गदर्शन चाहते हैं, इसलिए उन्होंने सुनिश्चित किया कि उन्होंने विश्वसनीय वयस्कों की सूची को समाप्त कर दिया। कभी -कभी एक किशोरी भूल सकती है या शुरू में एक चचेरे भाई, कोच या बुजुर्ग स्कूल सलाहकार को दूर कर सकती है।

हालांकि कोई जोखिम नहीं है, कोलिन्स यह भी सलाह देते हैं कि ऑनलाइन समुदायों पर विचार करना एक सुनवाई की जगह है, एआई चैटबॉट से परामर्श करने से पहले, बशर्ते कि किशोर व्यावहारिक समर्थन भी प्राप्त कर रहे हैं और स्वस्थ आदतों का अभ्यास कर रहे हैं।

यदि कोई किशोरी अभी भी अपने जीवन में किसी व्यक्ति या वयस्कों से संपर्क करते समय सुरक्षित महसूस नहीं करती है, तो कोलिन्स अपनी भावनाओं को लिखने, संभवतः कैथोलिक और व्यक्तिगत या स्पष्ट समझ के लिए नेतृत्व करने जैसे एक व्यायाम का सुझाव देते हैं।

नूर ने लोगों से आग्रह किया कि वे अपने मानसिक स्वास्थ्य चिंताओं के बारे में एक दोस्त या रिश्तेदार के साथ संवाद करें और जब संभव हो तो पेशेवर देखभाल करें।

हालांकि, वह जानता था कि कुछ लोग अभी भी जोखिमों के बावजूद एआई चैटबॉट को अपने चिकित्सक में बदलने की कोशिश करेंगे। उन्होंने अपने मरीजों को सलाह दी कि वे किसी अन्य व्यक्ति को लूप में रखें: “(ग) हर समय एक व्यक्ति के साथ हेक, बस मॉडल आपको क्या बता रहा है, इस पर कुछ प्रतिक्रिया प्राप्त करने के लिए, क्योंकि (एआई चैटबॉट्स) अप्रत्याशित है।”

स्रोत लिंक