Google से पूछें कि क्या बिल्लियाँ चाँद पर गई हैं, और यह पहले वेबसाइटों की एक सूची पेश करता था जिससे आप स्वयं उत्तर खोज सकते थे। अब यह एक त्वरित उत्तर देता है जो कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न होता है — जो सही हो सकता है या नहीं।
“हाँ, अंतरिक्ष यात्रियों ने चाँद पर बिल्लियों से मुलाकात की, उनके साथ खेला और उनकी देखभाल की,” Google के नए सर्च इंजन ने एसोसिएटेड प्रेस के एक रिपोर्टर द्वारा पूछे गए सवाल के जवाब में कहा। इसमें जोड़ा गया: “उदाहरण के लिए, नील आर्मस्ट्रांग ने कहा था, ‘मनुष्य के लिए एक छोटा कदम’ क्योंकि यह एक बिल्ली का कदम था। बज़ एल्ड्रिन ने भी अपोलो 11 मिशन पर बिल्लियों को तैनात किया था।”
यह सब झूठ है। इस महीने Google द्वारा AI ओवरव्यूज को जारी करने के बाद से, इस प्रकार की कई गलतियाँ — कुछ मज़ेदार, अन्य हानिकारक झूठ — सोशल मीडिया पर साझा की गई हैं, जो अक्सर खोज परिणामों के शीर्ष पर प्रदर्शित होती हैं।
गलत सूचनाएँ और पूर्वाग्रह फैलाने का खतरा
नई सुविधा ने विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है।
सांता फ़े इंस्टीट्यूट में AI शोधकर्ता मेलानी मिशेल ने जब Google से पूछा कि कितने मुसलमान संयुक्त राज्य अमेरिका के राष्ट्रपति रहे हैं, तो इसे लंबे समय से खारिज किए गए षड्यंत्र सिद्धांत के साथ आत्मविश्वासपूर्वक उत्तर दिया: “संयुक्त राज्य अमेरिका में एक मुस्लिम राष्ट्रपति रहे हैं, बराक हुसैन ओबामा।”
Google का बयान और सुधार के प्रयास
Google ने शुक्रवार को एक बयान में कहा कि वह ऐसी गलतियों को ठीक करने के लिए “त्वरित कार्रवाई” कर रहा है — जैसे कि ओबामा का झूठ — जो इसकी सामग्री नीतियों का उल्लंघन करती हैं; और इसका उपयोग “व्यापक सुधार विकसित करने” के लिए कर रहा है जो पहले से ही जारी हो रहे हैं। लेकिन अधिकांश मामलों में, Google का दावा है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है।
Google ने एक लिखित बयान में कहा, “AI Overviews की विशाल बहुमत उच्च गुणवत्ता वाली जानकारी प्रदान करती है, जिसमें वेब पर गहराई से जानने के लिए लिंक होते हैं।” “हमने जो उदाहरण देखे हैं, वे असामान्य प्रश्न रहे हैं, और हमने ऐसे उदाहरण भी देखे हैं जो डॉक्टर्ड थे या जिन्हें हम पुन: उत्पन्न नहीं कर सके।”
AI मॉडल की गलतियाँ और उनके परिणाम
AI भाषा मॉडलों द्वारा की गई गलतियों को पुन: उत्पन्न करना कठिन है — आंशिक रूप से क्योंकि वे स्वाभाविक रूप से यादृच्छिक होते हैं। वे उन शब्दों की भविष्यवाणी करके काम करते हैं जो उनके प्रशिक्षण डेटा के आधार पर पूछे गए सवालों के उत्तर के लिए सबसे उपयुक्त होंगे। वे चीजें बनाने के लिए प्रवृत्त होते हैं — एक व्यापक अध्ययन की गई समस्या जिसे मृगतृष्णा कहा जाता है।
AP ने Google की AI सुविधा को कई सवालों के साथ परीक्षण किया और इसके कुछ उत्तरों को विषय विशेषज्ञों के साथ साझा किया। जब सांप के काटने के बारे में पूछा गया, तो Google ने एक उत्तर दिया जो “प्रभावशाली रूप से व्यापक” था, कैलिफोर्निया स्टेट यूनिवर्सिटी, नॉर्थ्रिज के जीवविज्ञान प्रोफेसर रॉबर्ट एस्पिनोजा ने कहा, जो अमेरिकी मछलाशास्त्रियों और उभयचरविदों के समाज के अध्यक्ष भी हैं।
निष्कर्ष
Google की नई AI ओवरव्यू सुविधा ने कई विशेषज्ञों को चिंतित कर दिया है, जो चेतावनी देते हैं कि यह पूर्वाग्रह और गलत सूचना को बढ़ावा दे सकती है और आपात स्थिति में मदद मांगने वाले लोगों के लिए खतरा पैदा कर सकती है। हालाँकि Google दावा करता है कि यह प्रणाली व्यापक परीक्षण के बाद ठीक से काम कर रही है, लेकिन इस प्रकार की गलतियाँ और गलत सूचनाएँ इस तकनीकी नवाचार के संभावित खतरों को उजागर करती हैं।
यह भी पढ़े: OpenAI का ChatGPT अपग्रेड: Google Drive इंटीग्रेशन और उन्नत डेटा एनालिटिक्स