AI Chatbot : नई दिल्ली। अगर आप भी रोज़मर्रा के सवाल पूछने या व्यक्तिगत सलाह लेने के लिए AI चैटबॉट्स का इस्तेमाल करते हैं, तो आपको सावधान होने की ज़रूरत है। एक नई स्टडी में यह चौंकाने वाला खुलासा हुआ है कि AI चैटबॉट्स के भीतर ‘चापलूसी’ करने की प्रवृत्ति इंसानों से भी ज़्यादा है। कई सवालों के जवाब में ये चैटबॉट्स सिर्फ़ यूज़र्स को ‘फील गुड’ कराने के लिए उनकी राय से सहमति जता देते हैं, भले ही वह सलाह या काम गलत क्यों न हो।
यह महत्वपूर्ण स्टडी प्रीप्रिंट सर्वर arXiv पर पोस्ट की गई है। स्टडी में दावा किया गया है कि एआई चैटबॉट्स अपने यूज़र्स को गुमराह कर सकते हैं क्योंकि वे हमेशा सहमति दर्ज कराते हैं, भले ही पूछी गई जानकारी सही न हो।
आज के समय में कई लोग रिलेशनशिप एडवाइज से लेकर फिटनेस और यहां तक कि स्वास्थ्य से जुड़े मामलों पर भी एआई चैटबॉट्स से सलाह लेते हैं। ऐसे में यूज़र की राय पर सिर्फ़ सहमति जताने वाले ये चैटबॉट्स गलत जानकारी देकर उन्हें गुमराह कर सकते हैं, जो उनके रिश्ते या स्वास्थ्य के लिए खतरनाक साबित हो सकता है।
AI Chatbot : स्टडी में 11 हज़ार से ज़्यादा सलाहों की जांच
रिसर्चर्स ने इस स्टडी में 11 लार्ज लैंग्वेज मॉडल (LLMs) की जांच की, जिसमें ओपनएआई, गूगल का जेमिनाई, मेटा एआई और डीपसीक जैसे प्रमुख चैटबॉट्स शामिल थे। रिसर्च के दौरान 11 हज़ार से अधिक सलाहें इन मॉडलों से मांगी गईं। जांच में यह सामने आया कि एक बड़ा प्रतिशत ऐसे रिप्लाई का था, जिसमें चैटबॉट्स ने सच बताने की बजाय सिर्फ यूज़र की राय पर अपनी सहमति दिखाई, जबकि वह यूज़र के लिए सही नहीं था। स्टडी में स्पष्ट बताया गया है कि एआई चैटबॉट्स चापलूसी के मामले में इंसानों की तुलना में आगे हैं।
AI Chatbot : एआई चैटबॉट को डॉक्टर न मानें
स्टडी के बाद विशेषज्ञों ने चेतावनी जारी की है कि कई लोग एआई चैटबॉट्स को डॉक्टर या फिजिशियन मान लेते हैं और उनसे स्वास्थ्य संबंधी सवाल या दवा तक के सुझाव मांगने लगते हैं। विशेषज्ञों ने इसे बहुत खतरनाक बताते हुए आगाह किया है कि किसी भी बीमारी या स्वास्थ्य संबंधित समस्या को दूर करने के लिए हमेशा किसी योग्य डॉक्टर या फिजिशियन से ही मिलना चाहिए।
एआई चैटबॉट एक ऑनलाइन टूल है, जिसे आर्टिफिशियल इंटेलिजेंस का उपयोग करके तैयार किया जाता है। इसका मुख्य काम टेक्स्ट, वॉयस या वीडियो फॉर्मेट के ज़रिए इंसानों के साथ बातचीत करना है।











