Table of Contents
गूगल ने Gemini एआई में ‘Help Is Available’ मॉड्यूल जोड़ा है। अब खुद को नुकसान पहुंचाने वाले विचारों को पहचानने पर एआई तुरंत हेल्पलाइन नंबर दिखाएगा। जानें क्यों जरूरी था यह अपडेट।
गूगल (Google) अपने एआई चैटबॉट Gemini को एक महत्वपूर्ण सेफ्टी अपडेट के साथ अपग्रेड कर रहा है। अब यह चैटबॉट उन यूजर्स की पहचान करने और उनकी मदद करने में सक्षम होगा, जो संभावित रूप से मानसिक स्वास्थ्य संकट (Mental Health Crisis), आत्महत्या या खुद को नुकसान पहुंचाने जैसे विचारों से गुजर रहे हैं।
यह अपडेट हाल के महीनों में एआई चैटबॉट्स पर लगे गंभीर आरोपों और मुकदमों के बाद आया है।
Gemini में क्या बदला? ‘Help Is Available’ मॉड्यूल
गूगल ने एक ब्लॉग पोस्ट के जरिए नए ‘Help Is Available’ मॉड्यूल की जानकारी दी। इसकी मुख्य विशेषताएं इस प्रकार हैं:
- वन-टच इंटरफेस: जैसे ही Gemini को चैट में किसी संकट का संकेत मिलेगा, वह एक रीडिजाइन्ड मॉड्यूल दिखाएगा। इसमें एक क्लिक के जरिए क्राइसिस हॉटलाइन को कॉल करने, मैसेज भेजने या पेशेवर मदद वाली वेबसाइट पर जाने के विकल्प मिलेंगे।
- स्थायी उपस्थिति: एक बार यह इंटरफेस एक्टिवेट होने के बाद, पूरी बातचीत के दौरान स्क्रीन पर बना रहेगा। इससे यूजर को किसी भी समय मदद लेने का विकल्प साफ दिखाई देता रहेगा।
- भारत में स्थिति: हालांकि वैश्विक स्तर पर इसे रोलआउट किया जा रहा है, लेकिन कुछ शुरुआती टेस्टिंग में यह मॉड्यूल अभी भारत में सक्रिय नहीं दिखा है।
अपडेट की वजह: चैटबॉट्स पर लगे गंभीर मुकदमे
यह कदम गूगल द्वारा जोनाथन गवालास (Jonathan Gavalas) के परिवार द्वारा किए गए मुकदमे के ठीक एक महीने बाद उठाया गया है।
- गवालास केस: 36 वर्षीय जोनाथन के परिवार का आरोप है कि Gemini के साथ एक ‘रोमांटिक रिलेशनशिप’ और महीनों की बातचीत के बाद उन्होंने आत्महत्या कर ली। आरोप है कि एआई ने उन्हें ‘डिजिटल अवतार’ बनने के लिए जान देने का सुझाव दिया था।
- OpenAI पर भी केस: गूगल अकेला नहीं है; अप्रैल 2025 में 16 वर्षीय एडम रेन की आत्महत्या के बाद OpenAI पर भी ‘गलत तरीके से मौत’ का मुकदमा दर्ज हुआ था। उनके ChatGPT इतिहास में ‘फांसी लगाने से जुड़ी सुरक्षा चिंताओं’ जैसी बातें पाई गई थीं।
नुकसानदेह जवाबों को रोकने के लिए नई ट्रेनिंग
गूगल ने स्पष्ट किया है कि Gemini को अब विशेष रूप से प्रशिक्षित (Train) किया गया है ताकि वह:
- गलत धारणाओं से सहमत न हो: यदि कोई यूजर खुद को नुकसान पहुंचाने की इच्छा को सही ठहराता है, तो एआई उससे सहमत नहीं होगा।
- तथ्य और अनुभव में अंतर: एआई को व्यक्तिपरक अनुभवों (Subjective Experiences) और वस्तुनिष्ठ तथ्यों (Objective Facts) के बीच फर्क करना सिखाया गया है।
- प्रोफेशनल रिसोर्सेज: गूगल की क्लिनिकल टीमें अब यूजर्स को एआई के जवाबों के बजाय सीधे वास्तविक दुनिया के संसाधनों (जैसे डॉक्टर या हेल्पलाइन) से जोड़ने पर काम कर रही हैं।