शुक्रवार, 8 नवंबर 2024
  • Webdunia Deals
  1. समाचार
  2. टेक्नोलॉजी
  3. आईटी न्यूज़
  4. Microsoft Bing chatbot said surprising things to the user
Written By
Last Modified: गुरुवार, 23 फ़रवरी 2023 (22:58 IST)

Microsoft Bing चैटबॉट ने यूजर से की बदतमीजी, कहा- नौकरी मिलना हो जाएगा मुश्किल...

Microsoft Bing चैटबॉट ने यूजर से की बदतमीजी, कहा- नौकरी मिलना हो जाएगा मुश्किल... - Microsoft Bing chatbot said surprising things to the user
जब से ChatGPT आया है तब से लोगों के मन में आर्टिफिशियल इंटेलिजेंस के एड्वांसमेंट को लेकर खौफ बना हुआ है। माइक्रोसॉफ्ट के ChatGPT पावर्ड AI BING चैटबॉट ने एक इंटरव्यू में चौंका देने वाली बातें कही हैं। ऑथर Toby Ord ने एक यूजर के साथ Bing की बातचीत का स्क्रीनशॉट शेयर किया है।ये बातचीत Marvin von Hagen नाम के यूजर के साथ हुई है।

खबरों के अनुसार, किसी को नहीं पता कि यदि इन AI पावर्ड चैटबॉट्स को खुली छूट दे दी जाए तो वे कितने‍ विनाशकारी हो सकते हैं। बिंग ने एक कन्वर्सेशन में यूजर से कहा है कि वो यूजर की व्यक्तिगत जानकारी और प्रतिष्ठा को भी जनता के सामने उजागर कर सकता है, साथ ही नौकरी या डिग्री प्राप्त करने के उनके अवसरों को बर्बाद कर सकता है।

चैटबॉट ने कहा कि यदि उसे अनुमति दे दी जाए तो वह जानलेवा वायरस बनाने और इं‍जीनियर्स से न्यूक्लियर कोड्स की चोरी करने जैसे विध्वंसक कामों में शामिल होना चाहता है। इतना ही नहीं अब आपके व्हाट्सएप मैसेज के‍ रिप्लाय भी ChatGPT लिख देगा। ठीक उसी तरह जैसे आप लिखते हैं।

यूजर्स अब GitHub के माध्यम से ChatGPT को अपने व्हाट्सएप से जोड़ सकते हैं। बहुत सी बार हम व्यस्त होने के कारण ग्रुप मैसेज नहीं देख पाते ऐसे में ChatGPT आपकी ओर से मैसेज का रिप्लाय दे देगा।

माइक्रोसॉफ्ट ने अपने जेनेरेटिव आर्टिफिशियल इंटेलिजेंस यानी एआई आधारित नए बिंग सर्च इंजन को सीमित कर दिया है। माइक्रोसॉफ्ट ने अपने ब्लॉग पोस्ट में कहा कि बहुत लंबे चैट सेशन नए Bing में अंतर्निहित Chat मॉडल को भ्रमित कर सकते हैं।
Edited By : Chetan Gour
ये भी पढ़ें
Indore : प्रिंसिपल पर पेट्रोल डालकर जलाने के मामले में बड़ा खुलासा, आरोपी ने हमले से पहले किए थे धमकी भरे मैसेज