1. समाचार
  2. मुख्य ख़बरें
  3. UN News
  4. UNICEF issues warning about deepfakes
Written By UN
Last Modified: रविवार, 8 फ़रवरी 2026 (22:30 IST)

एआई के ज़रिए बच्चों की 'डीपफ़ेक' यौन सामग्री में उछाल, UNICEF की चेतावनी

UNICEF issues warning about deepfakes
संयुक्त राष्ट्र बाल कोष (UNICEF) ने कृत्रिम बुद्धिमता (एआई) के ज़रिए तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिंता जताई है और इस पर लगाम कसने के लिए ठोस सुरक्षा उपायों की मांग की है। इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में पेश किया गया।
 
यूनीसेफ़ ने बुधवार को जारी अपने एक वक्तव्य में क्षोभ जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं। एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से यौन रूपों में तब्दील कर दिया गया था। 
UNICEF, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है। कुछ देशों में हर 25 में से 1 बच्चे के प्रभावित होने की बात कही गई है, जो कि अक्सर एक आम कक्षा का आकार होता है। 
 

‘नग्नता’ के औज़ार

डीपफ़ेक उन तस्वीरों, वीडियो या ऑडियो को कहा जाता है जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। मगर बच्चों को निशाना बनाकर उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है। 
 
इनमें तथाकथित नग्नता दिखाने के लिए इस्तेमाल में लाए जाने वाले टूल भी हैं, जिनसे कपड़ों में ली गई मूल फ़ोटो में व्यक्ति को निर्वस्त्र कर दिया जाया है या फिर झूठी यौनिक तस्वीरें तैयार की जाती हैं। यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा सीधे तौर पर इससे पीड़ित होता है।
यदि किसी पीड़ित की पहचान न भी हो, ऐसी स्थिति में एआई के ज़रिए तैयार की गई बाल यौन दुर्व्यवहार सामग्री बच्चों के यौन शोषण का सामान्यीकरण करती है, शोषणकारी सामग्री के लिए मांग को हवा देती है और क़ानून लागू करने के प्रयासों में बड़ी चुनौतियां पेश करती हैं, जब बात उन बच्चों की हो, जिन्हें शिनाख़्त व सुरक्षा की आवश्यकता है। डीपफ़ेक दुरुपयोग, शोषणकारी है और यह जिस नुक़सान की वजह बनती है, उसके बारे में कुछ भी झूठा नहीं है।
 

सुरक्षा उपायों की मांग

यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टेक्‍नोलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं।
 
मगर फ़िलहाल ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है। लिखित या मल्टीमीडिया सामग्री तैयार करने वाले, जनरेटिव एआई टूल्स को जब सोशल मीडिया प्लैटफ़ॉर्म का ही हिस्सा बना दिया जाए, तो उससे जोखिम और गहरे होते हैं और तस्वीरों के साथ छेड़छाड़ और उनका फैलाव तेज़ी से किया जा सकता है। 
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।  
 

तेज़ी से बढ़ता जोखिम

संयुक्त राष्ट्र बाल कोष के अनुसार, अलग-अलग देशों में इस मुद्दे पर चिन्ताओं के स्तर में अन्तर है और इसलिए जागरुकता प्रसार, रोकथाम उपायों और संरक्षण के लिए प्रयासों की आवश्यकता है। इस बढ़ते जोखिम से निपटने के लिए यूएन एजेंसी ने पिछले वर्ष दिसम्बर में एआई व बच्चों पर अपने नए दिशानिर्देश जारी किए थे, जिसमें बाल अधिकारों के लिए नीतियों व व्यवस्थाओं की अनुशंसा की गई हैं।
 

फ़िलहाल यूनीसेफ़ ने इस ख़तरे पर पार पाने के लिए निम्न क़दमों की पुकार लगाई है

देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे। डिजिटल कंपनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टेक्‍नोलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।
ये भी पढ़ें
प्रधानमंत्री मोदी का मलेशिया दौरा हुआ पूरा, दोनों देशों ने इन समझौतों पर लगाई मुहर