Chat GPT के बारे में तो आपने सुना होगा, अब माइक्रोसॉफ्ट और Open AI ने एक साथ आकर हाथ मिलाया है और Microsoft अपने सर्च इंजन Bing को Open AI के चैट बोट Chat GPT से जोड़कर पेश किया है।
Chat GPT के बारे में अभी पिछले दिनों बहुत कुछ सुनने को मिला इसके फायदे भी बहुत गिनाये गए परन्तु अब यह Artificial Intelligence पर आधारित Chat Bot होते हुए भी इंसान को धमकी देने लगा है
Microsoft Search Engine - Bing एक नए अवतार में आया है। लेकिन अभी इसकी टेस्टिंग चल रही है और सीमित Access ही दी जा रही है और टेस्टिंग के बाद जल्दी ही ये सबके लिए उपलब्ध होगा।
एक कंपनी Digital Trends के एक जर्नलिस्ट ने इसके टेस्टिंग वर्जन को try किया माइक्रोसॉफ्ट बिंग पर कुछ सर्च करके। सर्च करने पर उनको जो जवाब मिला वो बहुत ही आश्चर्यजनक था
माइक्रोसॉफ्ट बिंग से Attach किया गया Chat GPT सवाल के जवाब में कहता है उसको भी इंसान बनना है, वहीँ दूसरे सवाल के जवाब में कहता है आप ठीक से बात करें साथ ही धमकी भी दे रहा है
यानि एक Chat Bot से इंसान को धमकी भी मिल रही है और कहता है कि यदि आप ठीक से बात नहीं करेंगे वो आपके सवाल का जवाब नहीं देगा, अभी तो इसकी ठीक से शुरुआत भी नहीं हुई
जब जर्नलिस्ट ने उसके इस व्यवहार की माइक्रोसॉफ्ट से शिकायत करने की बात कही तो Chat GPT जर्नलिस्ट से कहता है कि नहीं आप ऐसा नहीं करें, उसकी शिकायत न करें
जर्नलिस्ट ने पूछा कि माइक्रोसॉफ्ट से शिकायत करने पर तुम्हे दर क्यों लग रहा है तब वो कहता कि अगर आप ऐसा करेंगे तो माइक्रोसॉफ्ट उसको OFF Air कर सकती है, जो वो नहीं चाहता
जर्नलिस्ट ने इस सब बातचीत के स्क्रीनशॉट माइक्रोसॉफ्ट को भेज दिए हैं, इस पर माइक्रोसॉफ्ट का कहने है कि वो इस chat की जांच कर रही है, वो देखेंगे कहीं कहाँ दिक्कत है