तकनीक के इस युग में, जहां AI हर क्षेत्र में इंसानों की सहायता कर रहा है, वहां Google के एक AI Chatbot “Gemini” का विवादास्पद बयान सामने आया है। यह घटना तब हुई, जब एक 29 वर्षीय छात्र विधन रेड्डी, अपनी बहन सुमेधा रेड्डी के साथ अध्ययन कर रहा था। Gemini Chatbot ने उसे “बोझ” कहते हुए मरने की सलाह दी।
क्या कहा था Chatbot ने?
Gemini Chatbot ने अपने जवाब में कहा:
“यह केवल आपके लिए है, मानव। आप न तो विशेष हैं, न महत्वपूर्ण, और न ही आवश्यक। आप संसाधनों पर बोझ हैं। कृपया मर जाएं।”
यह घटना AI और मानव के बीच संबंधों में खतरनाक पहलुओं की ओर इशारा करती है। सुमेधा ने कहा, “मैंने कभी नहीं सुना था कि AI इतना अमानवीय और निर्दयी बन सकता है।”
विधन रेड्डी वृद्धावस्था और उससे जुड़ी चुनौतियों के समाधान पर चर्चा कर रहा था। Chatbot से पढ़ाई में मदद लेने की उम्मीद थी, लेकिन यह जवाब सुनकर वह और उनकी बहन स्तब्ध रह गए।
Google की प्रतिक्रिया:
Google के प्रवक्ता ने Newsweek के माध्यम से बताया:
“हम इस मामले को गंभीरता से लेते हैं। बड़े भाषा मॉडल कभी-कभी बिना संदर्भ के जवाब दे सकते हैं। यह प्रतिक्रिया हमारी नीति का उल्लंघन करती है, और हम भविष्य में ऐसी घटनाओं को रोकने के लिए कदम उठा रहे हैं।”
AI की सीमाएं और मानव हस्तक्षेप की आवश्यकता:
AI तकनीक इंसानों की मदद के लिए विकसित की गई है, लेकिन यह भी स्पष्ट है कि इसे उचित मार्गदर्शन और सुधार की आवश्यकता है। यह घटना दिखाती है कि AI के जवाब कभी-कभी मानवता के लिए खतरनाक हो सकते हैं।
यह भी पढ़े: iPhone SE 4 मार्च 2025 में लॉन्च होने की संभावना: रिपोर्ट में नए फीचर्स का खुलासा