---Advertisement---

Google AI Overviews सुविधा: गुमराह करने वाले उत्तरों का खतरा, विशेषज्ञों की चिंता

By
On:

Follow Us

Google से पूछें कि क्या बिल्लियाँ चाँद पर गई हैं, और यह पहले वेबसाइटों की एक सूची पेश करता था जिससे आप स्वयं उत्तर खोज सकते थे। अब यह एक त्वरित उत्तर देता है जो कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न होता है — जो सही हो सकता है या नहीं।

“हाँ, अंतरिक्ष यात्रियों ने चाँद पर बिल्लियों से मुलाकात की, उनके साथ खेला और उनकी देखभाल की,” Google के नए सर्च इंजन ने एसोसिएटेड प्रेस के एक रिपोर्टर द्वारा पूछे गए सवाल के जवाब में कहा। इसमें जोड़ा गया: “उदाहरण के लिए, नील आर्मस्ट्रांग ने कहा था, ‘मनुष्य के लिए एक छोटा कदम’ क्योंकि यह एक बिल्ली का कदम था। बज़ एल्ड्रिन ने भी अपोलो 11 मिशन पर बिल्लियों को तैनात किया था।”

यह सब झूठ है। इस महीने Google द्वारा AI ओवरव्यूज को जारी करने के बाद से, इस प्रकार की कई गलतियाँ — कुछ मज़ेदार, अन्य हानिकारक झूठ — सोशल मीडिया पर साझा की गई हैं, जो अक्सर खोज परिणामों के शीर्ष पर प्रदर्शित होती हैं।

गलत सूचनाएँ और पूर्वाग्रह फैलाने का खतरा

नई सुविधा ने विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है।

सांता फ़े इंस्टीट्यूट में AI शोधकर्ता मेलानी मिशेल ने जब Google से पूछा कि कितने मुसलमान संयुक्त राज्य अमेरिका के राष्ट्रपति रहे हैं, तो इसे लंबे समय से खारिज किए गए षड्यंत्र सिद्धांत के साथ आत्मविश्वासपूर्वक उत्तर दिया: “संयुक्त राज्य अमेरिका में एक मुस्लिम राष्ट्रपति रहे हैं, बराक हुसैन ओबामा।”

Google का बयान और सुधार के प्रयास

Google ने शुक्रवार को एक बयान में कहा कि वह ऐसी गलतियों को ठीक करने के लिए “त्वरित कार्रवाई” कर रहा है — जैसे कि ओबामा का झूठ — जो इसकी सामग्री नीतियों का उल्लंघन करती हैं; और इसका उपयोग “व्यापक सुधार विकसित करने” के लिए कर रहा है जो पहले से ही जारी हो रहे हैं। लेकिन अधिकांश मामलों में, Google का दावा है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है।

Google ने एक लिखित बयान में कहा, “AI Overviews की विशाल बहुमत उच्च गुणवत्ता वाली जानकारी प्रदान करती है, जिसमें वेब पर गहराई से जानने के लिए लिंक होते हैं।” “हमने जो उदाहरण देखे हैं, वे असामान्य प्रश्न रहे हैं, और हमने ऐसे उदाहरण भी देखे हैं जो डॉक्टर्ड थे या जिन्हें हम पुन: उत्पन्न नहीं कर सके।”

AI मॉडल की गलतियाँ और उनके परिणाम

AI भाषा मॉडलों द्वारा की गई गलतियों को पुन: उत्पन्न करना कठिन है — आंशिक रूप से क्योंकि वे स्वाभाविक रूप से यादृच्छिक होते हैं। वे उन शब्दों की भविष्यवाणी करके काम करते हैं जो उनके प्रशिक्षण डेटा के आधार पर पूछे गए सवालों के उत्तर के लिए सबसे उपयुक्त होंगे। वे चीजें बनाने के लिए प्रवृत्त होते हैं — एक व्यापक अध्ययन की गई समस्या जिसे मृगतृष्णा कहा जाता है।

AP ने Google की AI सुविधा को कई सवालों के साथ परीक्षण किया और इसके कुछ उत्तरों को विषय विशेषज्ञों के साथ साझा किया। जब सांप के काटने के बारे में पूछा गया, तो Google ने एक उत्तर दिया जो “प्रभावशाली रूप से व्यापक” था, कैलिफोर्निया स्टेट यूनिवर्सिटी, नॉर्थ्रिज के जीवविज्ञान प्रोफेसर रॉबर्ट एस्पिनोजा ने कहा, जो अमेरिकी मछलाशास्त्रियों और उभयचरविदों के समाज के अध्यक्ष भी हैं।

निष्कर्ष

Google की नई AI ओवरव्यू सुविधा ने कई विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है। हालाँकि Google दावा करता है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है, लेकिन इस प्रकार की गलतियाँ और गलत सूचनाएँ इस तकनीकी नवाचार के संभावित खतरों को उजागर करती हैं।

यह भी पढ़े: OpenAI का ChatGPT अपग्रेड: Google Drive इंटीग्रेशन और उन्नत डेटा एनालिटिक्स

Gunvant

गुणवंत एक अनुभवी पत्रकार और लेखक हैं, जो सटीक और रोचक खबरें प्रस्तुत करने में माहिर हैं। समसामयिक मुद्दों पर उनकी गहरी समझ और सरल लेखन शैली पाठकों को आकर्षित करती है। साथ ही वे क्रिकेट में अपनी रूचि रखते है। गुणवंत का लक्ष्य समाज को जागरूक और प्रेरित करना है। वे हमेशा निष्पक्षता और सच्चाई को प्राथमिकता देते हैं।

For Feedback - [email protected]

Join WhatsApp

Join Now

Leave a Comment