क्या है Deep fake, जिससे बदला रश्मिका मंदाना का चेहरा, कितना खतरनाक है और कैसे बचें इस fake टेक्नोलॉजी से?
फिल्म अभिनेत्री रश्मिका मंदाना (Rashmika mandana) का चेहरा बदलकर एक वीडियो वायरल कर दिया गया। वीडियो में रश्मिका हैं ही नहीं, लेकिन वो बदनाम हो गई। यह सब किया गया आर्टिफिशियल टेक्नोलॉजी (Artificial intelligence) यानी एआई (AI) के Deep fake की मदद से। जानते हैं क्या है Deep fake, कितना खतरनाक है और कैसे इसे पहचान कर इससे बचा जा सकता है।
ऐसे करता है काम : दरअसल, आर्टिफिशियल टेक्नोलॉजी आने के बाद इसके फायदों के साथ कई नुकसान भी हैं। बता दें कि डीपफेक Deep fake वह टेक्नोलॉजी है, जिससे रियल वीडियो में दूसरे के चेहरे को फिट कर फेक वीडियो बनाया जाता है और जो रियल लगता है। इसे तैयार करने के लिए आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी की मदद ली जाती है। इसे डीप लर्निंग (Deep learning) भी कहा जाता है। इसके तहत किसी की फोटो या वीडियो को फेक में बदल दिया जाता है।
क्या है Deep fake कंटेंट?
फेक कंटेंट के बारे में तो सभी को पता है। जैसे किसी वीडियो, ऑडियो या तस्वीर की कॉपी कर उसे चलाना फेक कंटेंट में आता है। जबकि डीपफेक कंटेंट आर्टिफिशियल इंटेलीजेंस (AI) की मदद से बनाया जाता है। डीपफेक टेक्नोलॉजी को डीप लर्निंग टर्म से लिया गया है। डीप लर्निंग का मतलब है कि एआई की मदद से बड़े डाटा के जरिये किसी समस्या का समाधान खोजना। इसी तरह, डीपफेक कंटेंट में किसी वीडियो, इमेज या डिजिटल कंटेंट पर किसी अन्य का चेहरा अथवा आवाज बदलकर उसे वायरल किया जाता है। ठीक ऐसा ही एक्ट्रेस रश्मिका मंदाना के साथ हुआ।
कैसे बनता है Deep fake कंटेंट?
डीपफेक कंटेंट को दो तरह के एल्गोरिदम का इस्तेमाल करके बनाया जाता है। इसमें एक जेनरेटर होता है तो दूसरा डिस्क्रिमिनेटर। दोनों ही एआई की मदद से ही काम करते हैं। इस प्रक्रिया में जेनरेटर फेक डिजिटल कंटेंट तैयार करता है और डिस्क्रिमिनेटर से पूछता है कि यह कंटेंट बनावटी लग रहा या रियल। इसमें एक इनकोडर होता है और दूसरा डिकोडर। एक वीडियो को तैयार करता है और दूसरा उसे डिकोड करके यह पता लगाता है कि ये असली जैसा दिख रहा या बनावटी। जब डिस्क्रिमिनेटर यह बता देता है कि कंटेंट पूरी तरह से रियल लग रहा है तो उसे वायरल कर दिया जाता है।
ओबामा- जुकरबर्ग को भी नहीं छोड़ा
बता दें कि ज्यादातर डीपफेक वीडियो अश्लील होते हैं। इसकी मदद से कई मॉडल और सेलिब्रेटी के चेहरे और बॉडी में बदलाव कर के वायरल किया जाता है। कुछ साल पहले पूर्व अमेरिकी राष्ट्रपति बराक ओबामा को दिखाते हुए डीपफेक वीडियो में डोनाल्ड ट्रम्प को पूरी तरह से मूर्ख कहते हुए बताया गया था। इसी तरह एक बार जुकरबर्ग भी इसका शिकार हो चुके हैं।
क्यों खतरनाक है यह Fake टेक्नोलॉजी?
दरअसल डीपफेक एक बड़ी चुनौती है। इसमें नकली और असली का अंतर करना मुश्किल है। सेलिब्रिटीज की सोशल लाइफ को बहुत नुकसान हो सकता है। रश्मिका मंदाना के साथ भी यही किया गया। हालांकि इस वायरल वीडियो के बाद सरकार की ओर से भी बयान जारी किया गया है। केंद्रीय मंत्री राजीव चंद्रशेखर ने सोशल मीडिया पर लिखा कि पीएम नरेंद्र मोदी इंटरनेट इस्तेमाल करने वाले सभी डिजिटल नागरिक की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध हैं।
कैसे शुरू हुई Deep fake टेक्नोलॉजी?
'डीपफेक' शब्द पहली बार 2017 के अंत में एक Reddit यूजर द्वारा बनाया गया था, जिसने अश्लील वीडियो पर मशहूर हस्तियों के चेहरे को सुपरइम्पोज करने के लिए डीप लर्निंग टेक्नोलॉजी का इस्तेमाल किया था। इस घटना ने महत्वपूर्ण ध्यान आकर्षित किया। 2018 तक ओपन-सोर्स लाइब्रेरी और ऑनलाइन शेयर किए गए ट्यूटोरियल की बदौलत टेक्नोलॉजी इस्तेमाल में आसान हो गई थी। बाद के 2020 में डीपफेक और ज्यादा एडवांस हो गया, जिसे पहचानना मुश्किल हो गया।
कैसे करें Deep fake की पहचान?
कोई वीडियो या इमेज डीपफेक है तो उसमें हुए बदलावों पर नजर डाल सकते हैं। कई बार ऐसी वीडियो में आपको हाथ-पैर कि मूवमेंट पर ज्यादा नजर देनी चाहिए। कुछ प्लेटफॉर्म एआई जनरेटेड कंटेंट के लिए वॉटरमार्क जोड़ते हैं कि कंटेंट एआई से जनरेट किया गया है। हमेशा ऐसे निशान या डिसक्लेमर को ध्यान से चेक करें। इसके साथ ही कोशिश करें कि अपने कम से कम तस्वीर और वीडियो पोस्ट करें, साथ ही तस्वीर और वीडियो ऐसे हों जिनके साथ ज्यादा छेड़छाड़ न की जा सके।