Google AI Overviews सुविधा: गुमराह करने वाले उत्तरों का खतरा, विशेषज्ञों की चिंता

Google AI Overviews Feature- Risks of Misleading Responses, Experts Concerned
Google AI Overviews Feature- Risks of Misleading Responses, Experts Concerned
WhatsApp Group Join Now

Google से पूछें कि क्या बिल्लियाँ चाँद पर गई हैं, और यह पहले वेबसाइटों की एक सूची पेश करता था जिससे आप स्वयं उत्तर खोज सकते थे। अब यह एक त्वरित उत्तर देता है जो कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न होता है — जो सही हो सकता है या नहीं।

“हाँ, अंतरिक्ष यात्रियों ने चाँद पर बिल्लियों से मुलाकात की, उनके साथ खेला और उनकी देखभाल की,” Google के नए सर्च इंजन ने एसोसिएटेड प्रेस के एक रिपोर्टर द्वारा पूछे गए सवाल के जवाब में कहा। इसमें जोड़ा गया: “उदाहरण के लिए, नील आर्मस्ट्रांग ने कहा था, ‘मनुष्य के लिए एक छोटा कदम’ क्योंकि यह एक बिल्ली का कदम था। बज़ एल्ड्रिन ने भी अपोलो 11 मिशन पर बिल्लियों को तैनात किया था।”

यह सब झूठ है। इस महीने Google द्वारा AI ओवरव्यूज को जारी करने के बाद से, इस प्रकार की कई गलतियाँ — कुछ मज़ेदार, अन्य हानिकारक झूठ — सोशल मीडिया पर साझा की गई हैं, जो अक्सर खोज परिणामों के शीर्ष पर प्रदर्शित होती हैं।

गलत सूचनाएँ और पूर्वाग्रह फैलाने का खतरा

नई सुविधा ने विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है।

सांता फ़े इंस्टीट्यूट में AI शोधकर्ता मेलानी मिशेल ने जब Google से पूछा कि कितने मुसलमान संयुक्त राज्य अमेरिका के राष्ट्रपति रहे हैं, तो इसे लंबे समय से खारिज किए गए षड्यंत्र सिद्धांत के साथ आत्मविश्वासपूर्वक उत्तर दिया: “संयुक्त राज्य अमेरिका में एक मुस्लिम राष्ट्रपति रहे हैं, बराक हुसैन ओबामा।”

Google का बयान और सुधार के प्रयास

Google ने शुक्रवार को एक बयान में कहा कि वह ऐसी गलतियों को ठीक करने के लिए “त्वरित कार्रवाई” कर रहा है — जैसे कि ओबामा का झूठ — जो इसकी सामग्री नीतियों का उल्लंघन करती हैं; और इसका उपयोग “व्यापक सुधार विकसित करने” के लिए कर रहा है जो पहले से ही जारी हो रहे हैं। लेकिन अधिकांश मामलों में, Google का दावा है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है।

Google ने एक लिखित बयान में कहा, “AI Overviews की विशाल बहुमत उच्च गुणवत्ता वाली जानकारी प्रदान करती है, जिसमें वेब पर गहराई से जानने के लिए लिंक होते हैं।” “हमने जो उदाहरण देखे हैं, वे असामान्य प्रश्न रहे हैं, और हमने ऐसे उदाहरण भी देखे हैं जो डॉक्टर्ड थे या जिन्हें हम पुन: उत्पन्न नहीं कर सके।”

AI मॉडल की गलतियाँ और उनके परिणाम

AI भाषा मॉडलों द्वारा की गई गलतियों को पुन: उत्पन्न करना कठिन है — आंशिक रूप से क्योंकि वे स्वाभाविक रूप से यादृच्छिक होते हैं। वे उन शब्दों की भविष्यवाणी करके काम करते हैं जो उनके प्रशिक्षण डेटा के आधार पर पूछे गए सवालों के उत्तर के लिए सबसे उपयुक्त होंगे। वे चीजें बनाने के लिए प्रवृत्त होते हैं — एक व्यापक अध्ययन की गई समस्या जिसे मृगतृष्णा कहा जाता है।

AP ने Google की AI सुविधा को कई सवालों के साथ परीक्षण किया और इसके कुछ उत्तरों को विषय विशेषज्ञों के साथ साझा किया। जब सांप के काटने के बारे में पूछा गया, तो Google ने एक उत्तर दिया जो “प्रभावशाली रूप से व्यापक” था, कैलिफोर्निया स्टेट यूनिवर्सिटी, नॉर्थ्रिज के जीवविज्ञान प्रोफेसर रॉबर्ट एस्पिनोजा ने कहा, जो अमेरिकी मछलाशास्त्रियों और उभयचरविदों के समाज के अध्यक्ष भी हैं।

निष्कर्ष

Google की नई AI ओवरव्यू सुविधा ने कई विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है। हालाँकि Google दावा करता है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है, लेकिन इस प्रकार की गलतियाँ और गलत सूचनाएँ इस तकनीकी नवाचार के संभावित खतरों को उजागर करती हैं।

यह भी पढ़े: OpenAI का ChatGPT अपग्रेड: Google Drive इंटीग्रेशन और उन्नत डेटा एनालिटिक्स

Team K.H.
Team K.H. एक न्यूज़ वेबसाइट का लेखक प्रोफ़ाइल है। इस टीम में कई प्रोफेशनल और अनुभवी पत्रकार और लेखक शामिल हैं, जो अपने विशेषज्ञता के क्षेत्र में लेखन करते हैं। यहाँ हम खबरों, समाचारों, विचारों और विश्लेषण को साझा करते हैं, जिससे पाठकों को सटीक और निष्पक्ष जानकारी प्राप्त होती है। Team K.H. का मिशन है समाज में जागरूकता और जानकारी को बढ़ावा देना और लोगों को विश्वसनीय और मान्य स्रोत से जानकारी प्राप्त करने की सुविधा प्रदान करना।

LEAVE A REPLY

Please enter your comment!
Please enter your name here