Microsoft Bing चैटबॉट ने यूजर से की बदतमीजी, कहा- नौकरी मिलना हो जाएगा मुश्किल...
जब से ChatGPT आया है तब से लोगों के मन में आर्टिफिशियल इंटेलिजेंस के एड्वांसमेंट को लेकर खौफ बना हुआ है। माइक्रोसॉफ्ट के ChatGPT पावर्ड AI BING चैटबॉट ने एक इंटरव्यू में चौंका देने वाली बातें कही हैं। ऑथर Toby Ord ने एक यूजर के साथ Bing की बातचीत का स्क्रीनशॉट शेयर किया है।ये बातचीत Marvin von Hagen नाम के यूजर के साथ हुई है।
खबरों के अनुसार, किसी को नहीं पता कि यदि इन AI पावर्ड चैटबॉट्स को खुली छूट दे दी जाए तो वे कितने विनाशकारी हो सकते हैं। बिंग ने एक कन्वर्सेशन में यूजर से कहा है कि वो यूजर की व्यक्तिगत जानकारी और प्रतिष्ठा को भी जनता के सामने उजागर कर सकता है, साथ ही नौकरी या डिग्री प्राप्त करने के उनके अवसरों को बर्बाद कर सकता है।
चैटबॉट ने कहा कि यदि उसे अनुमति दे दी जाए तो वह जानलेवा वायरस बनाने और इंजीनियर्स से न्यूक्लियर कोड्स की चोरी करने जैसे विध्वंसक कामों में शामिल होना चाहता है। इतना ही नहीं अब आपके व्हाट्सएप मैसेज के रिप्लाय भी ChatGPT लिख देगा। ठीक उसी तरह जैसे आप लिखते हैं।
यूजर्स अब GitHub के माध्यम से ChatGPT को अपने व्हाट्सएप से जोड़ सकते हैं। बहुत सी बार हम व्यस्त होने के कारण ग्रुप मैसेज नहीं देख पाते ऐसे में ChatGPT आपकी ओर से मैसेज का रिप्लाय दे देगा।
माइक्रोसॉफ्ट ने अपने जेनेरेटिव आर्टिफिशियल इंटेलिजेंस यानी एआई आधारित नए बिंग सर्च इंजन को सीमित कर दिया है। माइक्रोसॉफ्ट ने अपने ब्लॉग पोस्ट में कहा कि बहुत लंबे चैट सेशन नए Bing में अंतर्निहित Chat मॉडल को भ्रमित कर सकते हैं।
Edited By : Chetan Gour