रिपोर्टों के मुताबिक, इंटरनेट ने चार्ली किर्क की हत्या के बारे में साजिश के लिए सभी घंटों को खोलने के लिए सभी घंटे लग गए, जिनकी मृत्यु के बाद कल यूटा में एक सार्वजनिक कार्यक्रम में गोली मार दी गई थी।

चरम सही टिप्पणीकार, जिन्होंने अक्सर आव्रजन के बारे में भयानक बहस में भाग लिया, कॉलेज परिसरों में हथियारों और गर्भपात पर नियंत्रण, अपने रूढ़िवादी मीडिया समूह, टर्निंग पॉइंट यूएसए के साथ एक विश्वविद्यालय दौर के दौरान मारा गया। संगठन ने पिछले एक दशक में बिताया, प्रमुख विश्वविद्यालयों में रूढ़िवादी युवा गठबंधन बनाया और जादूगर और राष्ट्रपति ट्रम्प के राष्ट्रवादी आंदोलन से निकटता से संबंधित हो गया। चूंकि घटना की शुरुआती रिपोर्टें प्रसिद्ध समाचार एजेंसियों और से दोनों से शुरू हुईं पॉप कल्चर रिफ्रेश को अपडेट करनायह स्पष्ट नहीं था कि किर्क जीवित था या उसके शूटर को हिरासत में लिया गया था।

यह भी देखें:

एक्स पर स्वचालित स्वचालन के साथ वीडियो कैसे रोकें

लेकिन राजनीतिक मार्ग के दोनों किनारों पर इंटरनेट रैकेट पहले से ही सामाजिक नेटवर्क पर लड़ाई में बढ़ रहे हैं, भीड़ में लोगों के नाम निर्धारित करने की कोशिश कर रहे हैं और कीबोर्ड फोरेंसिक बनाने की कोशिश कर रहे हैं जब वे ग्राफिक वीडियो के पास जा रहे थे जब किर्क शॉट। कुछ ने दावा किया कि कर्क के अंगरक्षक थे ट्रेडिंग मैनुअल सिग्नल मैं शॉट से ठीक पहले लग रहा था। दूसरों ने दावा किया कि हत्या वास्तव में थी ढकना मृतक सेक्स व्यापारी जेफरी एपस्टीन के साथ ट्रम्प के संबंध के प्रकटीकरण से विचलित।

इस मुद्दे की वृद्धि एआई के साथ चैट बॉट थी, जिसने सोशल नेटवर्क के प्लेटफार्मों को एकीकृत रोबोटिक सहायकों के रूप में और एआई खातों के रूप में कैप्चर किया जो स्वचालित रूप से चिढ़ उपयोगकर्ताओं को जवाब देते हैं।

एक उदाहरण में, मीडिया और गलत सूचना के अनुसार। न्यूजगार्डX खाता नामित @Skperplexityउसी के द्वारा, आर्टिफिशियल इंटेलिजेंस की कंपनी के साथ जुड़े, ने उपयोगकर्ता को बताया कि उनका प्रारंभिक बयान चार्ली किर्क की मृत्यु हो गई थी, वास्तव में, गलत सूचना और किर्क जीवित था। उपयोगकर्ता द्वारा बॉट को यह बताने के लिए प्रेरित किया कि सामान्य ज्ञान के हथियारों के सुधार ने किर्क के जीवन को कैसे बचाया। NewsGuard रिपोर्ट प्रकाशित होने के बाद से इसका जवाब हटा दिया गया था।

“घबराहट के खाते को भयावहता के खाते से भ्रमित नहीं किया जाना चाहिए,” शर्मिंदगी को उनके बयान में समझाया गया है। “सटीक एआई मुख्य तकनीक है जिसे हम बनाते हैं, और हमारे सभी उत्पादों में केंद्रीय है। चूंकि हम इस विषय के बारे में बहुत गंभीर हैं, इसलिए घबराना कभी भी 100% सटीक होने का दावा नहीं करता है। लेकिन हम तर्क देते हैं कि इस पर काम करने वाली एकमात्र कंपनी एआई लगातार हमारे मुख्य लक्ष्य की तरह है।”

ऐ बॉट एलोन मास्क, हर्क, ने गलती से उपयोगकर्ता को पुष्टि की कि वीडियो था संपादित वीडियो “मेम”इस बयान के बाद कि किर्क ने अतीत में “एक कठिन भीड़ का सामना किया” और “आसानी से इसे जीवित रहेगा।” तब चैट-बूट दोगुना हो गया, लिखते हुए: “चार्ली किर्क चर्चा कर रहा है, और प्रभाव यह दिखते हैं जैसे कि वह एक कॉमेडिक प्रभाव के लिए एक वाक्य के बीच में” शॉट “था। कोई वास्तविक नुकसान नहीं; वह पहले की तरह क्रम में और सक्रिय है।” वीडियो वास्तविक थामैदान

अन्य मामलों में, NewsGuard ने प्रलेखित किया, उपयोगकर्ताओं ने अपनी खुद की षड्यंत्रों की पुष्टि करने के लिए चैट बॉट के जवाब साझा किए, जिनमें दावा किया गया था कि उनकी हत्या की योजना विदेशी अभिनेताओं द्वारा की गई थी, और यह कि उनकी मृत्यु डेमोक्रेट्स द्वारा मारा गया था। एक उपयोगकर्ता ने Google के उत्पन्न AI-Answer को साझा किया, जिसने दावा किया कि किर्क कथित यूक्रेनी दुश्मनों की सूची में था। हॉरर ने एक अन्य उपयोगकर्ता एक्स से कहा कि सीएनएन, एनवाईटी और फॉक्स न्यूज सभी थे एक पंजीकृत डेमोक्रेट की पुष्टि की अपराध में देखा गया था और संदिग्ध द्वारा पुष्टि की गई थी – इसमें से कोई भी सत्य नहीं थामैदान

लहराते हुए प्रकाश की गति

Google Mashable के प्रतिनिधि ने कहा, “इस विषय पर जानकारी के लिए देख रहे अनुरोधों का विशाल बहुमत उच्च गुणवत्ता और सटीक उत्तर देता है। एआई की इस ठोस समीक्षा ने हमारी नीति का उल्लंघन किया, और हम इस समस्या को हल करने के लिए उपाय कर रहे हैं।”

Mashable ने टिप्पणियों के लिए Mrok Xai मातृ कंपनी की ओर भी रुख किया।

चैट बॉट को पत्रकार के रूप में प्रशिक्षित नहीं किया जा सकता है

जबकि एआई सहायक ईमेल के सरल दैनिक कार्यों-आत्मसात करने के लिए उपयोगी हो सकते हैं, आरक्षण करना, मामलों की सूची बनाना, रिपोर्टिंग समाचार में कमजोरी सभी के लिए एक दायित्व है, वॉचडॉग्स और मीडिया नेताओं के अनुसार।

एल्गोरिदम टिप्पणियों के लिए कॉल नहीं करते हैं।

– मैकेंजी सादगी, न्यूज़गार्ड

“हम बेचैन समय में रहते हैं, और यह पहले कब तक होगा Ay- सक्रिय शीर्षक वास्तविक दुनिया में महत्वपूर्ण नुकसान का कारण बनता है?“इस वर्ष की शुरुआत में ब्लॉग पर बीबीसी न्यूज एंड करंट अफेयर्स के जनरल डायरेक्टर डेबोरा टर्न ने पूछा।

एक समस्या यह है कि चैट बॉट सरल हैं वे जो कहते हैं उसे दोहराएंन्यूनतम विवेक के साथ; वे उस काम को नहीं कर सकते जो मानव पत्रकार समाचारों को प्रकाशित करने से पहले करते हैं, उदाहरण के लिए, स्थानीय अधिकारियों से संपर्क करें और छवियों या वीडियो की जाँच करें जो जल्दी से इंटरनेट पर फैलते हैं। इसके बजाय वे उनके पास जो कुछ भी है, उससे उत्तर लाएंयह टूटी हुई खबरों की दुनिया में महत्वपूर्ण है, जिसमें, जैसा कि आप जानते हैं, यहां तक ​​कि लोग भी गलत हैं। आर्टिफिशियल इंटेलिजेंस के ब्लैक बॉक्स की तुलना में, ज्यादातर खबरों में चेक और बैलेंसिंग होते हैं, जैसे कि संपादक जो प्रसारण से पहले कहानियां सुनाते हैं।

दूसरी ओर, चैट बॉट्स व्यक्तिगत, पृथक इंटरैक्शन प्रदान करते हैं और, जैसा कि आप जानते हैं, साइकोफेंट हैं, उपयोगकर्ता के विश्वासों को खुश करने और पुष्टि करने के लिए हर संभव प्रयास करें।

“हमारे अध्ययन से पता चला है कि एक नियम के रूप में, चैट बॉट्स की रिपोर्टिंग के एक विश्वसनीय बैकअप के साथ, आत्मविश्वास प्रदान करते हैं, लेकिन गलत जवाब देते हैं,” एक न्यूज़गार्ड शोधकर्ता और उपरोक्त विश्लेषण के लेखक मैकेंजी सादेगी ने समझाया। “पिछले समाचार कार्यक्रमों के दौरान, जैसे कि पिछले साल डोनाल्ड ट्रम्प के खिलाफ मारने का प्रयास, चैट बॉट उपयोगकर्ताओं को सूचित करेंगे तथ्य यह है कि उनके पास वास्तविक समय में वर्तमान जानकारी तक पहुंच नहीं थी। “लेकिन तब से, उसके अनुसार, एआई की कंपनियों ने अपने बॉट्स को समतल कर दिया है, जिसमें उन्हें वास्तविक समय में समाचार तक पहुंच प्रदान करना शामिल है, जैसा कि हो रहा है।

“जवाब देने से इनकार करने के बजाय, मॉडल अब इस समय इंटरनेट पर उपलब्ध किसी भी जानकारी से निकाला जाता है, जिसमें एआई द्वारा उत्पन्न कम भागीदारी, सामाजिक पोस्ट और खेतों के साथ साइटें शामिल हैं।” एल्गोरिदम टिप्पणियों के लिए कॉल नहीं करते हैं। “

सादेगी ने बताया कि चैट बॉट्स सही के बजाय कमरे में सबसे तेज आवाज के लिए प्राथमिकता हैं। जो जानकारी अधिक बार दोहराई जाती है वह अक्सर होती है, सर्वसम्मति और शक्तियां बॉट एल्गोरिथ्म द्वारा दी जाती हैं, “सीमित सस्ती आधिकारिक रिपोर्टिंग को डूबने के लिए एक झूठ की अनुमति देता है।”

न्यूयॉर्क विश्वविद्यालय में ब्रेनन सेंटर फॉर जस्टिस, नॉन -पार्टी इंस्टीट्यूट ऑफ लॉ एंड पॉलिटिक्स, भी समाचारों के संग्रह में एआई की भूमिका की निगरानी करता है। संगठन ने समाचार साक्षरता पर जेनेरिक एआई के प्रभाव के बारे में इसी तरह की चिंताओं को उठाया, जिसमें “के रूप में जाना जाता है” की संभावनाओं का विस्तार करने में इसकी भूमिका भी शामिल है।झूठा का लाभांश” – या उन लोगों द्वारा प्राप्त फायदे जो भ्रम को तोड़ते हैं, यह दावा करते हैं कि वास्तविक जानकारी झूठी है। ऐसे” झूठे “का दावा है कि सत्य को निर्धारित नहीं किया जा सकता है, क्योंकि, जैसा कि कई कहते हैं, किसी भी छवि या वीडियो को जनरेटिव एआई द्वारा बनाया जा सकता है।

अभिन्न जोखिमों के साथ भी, अधिक लोगों ने समाचार के लिए उदार एआई की ओर रुख किया चूंकि कंपनियां सामाजिक नेटवर्क और खोज इंजन पर चैनलों में प्रौद्योगिकियों को पेश करना जारी रखती हैं। प्यू शोध अध्ययन के अनुसार, जो लोग एआई द्वारा उत्पन्न खोज परिणामों का सामना कर रहे हैं वे थे प्रेस की संभावना कम पारंपरिक खोज इंजन का उपयोग करने वालों की तुलना में अतिरिक्त स्रोतों पर। इस बीच, बड़ी तकनीकी कंपनियों ने समुदाय के आधार पर नोटों के पक्ष में तथ्यों को सत्यापित करने के लिए अपने आदेशों को कम कर दिया, बावजूद इसके कि विघटन के विकास के बारे में व्यापक चिंता और समाचार और राजनीति पर ai प्रभावजुलाई एक्स के क्षेत्र ने घोषणा की कि वह एक कार्यक्रम का संचालन कर रहा था जो चैट को अपने स्वयं के सामुदायिक नोटों को उत्पन्न करने की अनुमति देगा।

विषय-वस्तु
सामाजिक अच्छे सामाजिक नेटवर्क



स्रोत लिंक