गुरुवार, 19 दिसंबर 2024
  • Webdunia Deals
  1. समाचार
  2. मुख्य ख़बरें
  3. अंतरराष्ट्रीय
  4. Israel accused of using AI to target thousands of people in Gaza
Last Updated : शुक्रवार, 12 अप्रैल 2024 (16:22 IST)

इजराइल ने किया AI का दुरुपयोग, हजारों लोगों को निशाना बनाने का आरोप

इजराइली रक्षा बल का खंडन

इजराइल ने किया AI का दुरुपयोग, हजारों लोगों को निशाना बनाने का आरोप - Israel accused of using AI to target thousands of people in Gaza
Thousands of people attacked in Israel : इजरायली सेना (israeli army) ने एक नई कृत्रिम बुद्धिमत्ता (AI) प्रणाली का उपयोग करके गाजा (Gaza) में संभावित हवाई हमलों के लिए हजारों मानव लक्ष्यों की सूची तैयार की। पिछले सप्ताह मेलबर्न में प्रकाशित एक रिपोर्ट में यह जानकारी दी गई। रिपोर्ट गैर-लाभकारी आउटलेट मैगजीन से आई है, जो इजरायली और फिलिस्तीनी पत्रकारों द्वारा चलाया जाता है।
 
रिपोर्ट में इजरायली खुफिया विभाग के 6 अज्ञात स्रोतों के साक्षात्कार का हवाला दिया गया है। सूत्रों का दावा है कि सिस्टम जिसे लैवेंडर के नाम से जाना जाता है, का उपयोग अन्य एआई सिस्टम के साथ संदिग्ध आतंकवादियों को लक्षित करने और उनकी हत्या करने के लिए किया गया था। जिनमें से कई अपने ही घरों में थे जिससे बड़ी संख्या में नागरिक हताहत हुए।

 
गार्डियन की एक अन्य रिपोर्ट के अनुसार रिपोर्ट के समान स्रोतों के आधार पर एक खुफिया अधिकारी ने कहा कि सिस्टम ने बड़ी संख्या में हमलों को अंजाम देना आसान बना दिया, क्योंकि मशीन ने इसे ठंडे दिमाग से किया। जैसा कि दुनियाभर की सेनाएं एआई का उपयोग करने की होड़ में हैं, ये रिपोर्टें हमें दिखाती हैं कि यह कैसा दिख सकता है: सीमित सटीकता और कम मानवीय निरीक्षण के साथ मशीन-स्पीड युद्ध जिसमें नागरिकों को भारी नुकसान होगा।
 
इजरायली रक्षा बल का खंडन : इजरायली रक्षा बल इन रिपोर्टों में कई दावों का खंडन करता है। गार्जियन को दिए एक बयान में उसने कहा कि वह आतंकवादी गुर्गों की पहचान करने वाली कृत्रिम बुद्धिमत्ता प्रणाली का उपयोग नहीं करता है। इसमें कहा गया है कि लैवेंडर एक एआई सिस्टम नहीं है बल्कि सिर्फ एक डेटाबेस है जिसका उद्देश्य खुफिया स्रोतों को क्रॉस-रेफरेंस करना है।
 
लेकिन 2021 में यरुशलम पोस्ट ने एक खुफिया अधिकारी की रिपोर्ट में कहा कि इजराइल ने अपना पहला एआई युद्ध जीता है। डेटा का निरीक्षण करने और लक्ष्य तैयार करने के लिए वह कई मशीन लर्निंग सिस्टम का उपयोग कर रहा है।
 
उसी वर्ष द ह्यूमन-मशीन टीम नामक एक पुस्तक जिसमें एआई-संचालित युद्ध के दृष्टिकोण को रेखांकित किया गया था, एक लेखक द्वारा छद्म नाम के तहत प्रकाशित की गई थी जिसे हाल ही में एक प्रमुख इजरायली गुप्त खुफिया इकाई का प्रमुख बताया गया था।

 
खुफिया अधिकारी ने सामूहिक हत्या का कारखाना बताया : पिछले साल एक अन्य रिपोर्ट में कहा गया था कि इजराइल संभावित आतंकवादी इमारतों और बमबारी सुविधाओं की पहचान करने के लिए हब्सोरा नामक एक एआई सिस्टम का भी उपयोग करता है। रिपोर्ट के अनुसार हब्सोरा लगभग स्वचालित रूप से लक्ष्य उत्पन्न करता है और एक पूर्व खुफिया अधिकारी ने इसे सामूहिक हत्या का कारखाना बताया।
 
हालिया रिपोर्ट में एक तीसरी प्रणाली का भी दावा किया गया है जिसे व्हेयर इज डैडी? कहा जाता है, जो लैवेंडर द्वारा पहचाने गए लक्ष्यों की निगरानी करती है और जब वे अपने परिवार के पास घर लौटते हैं तो सेना को सचेत करती है।
 
कई देश सैन्य बढ़त की तलाश में एल्गोरिदम की ओर रुख कर रहे हैं। अमेरिकी सेना का प्रोजेक्ट मावेन एआई लक्ष्ईकरण की आपूर्ति करता है जिसका उपयोग मध्य पूर्व और यूक्रेन में किया गया है। चीन भी डेटा का विश्लेषण करने, लक्ष्यों का चयन करने और निर्णय लेने में सहायता के लिए एआई सिस्टम विकसित करने की ओर अग्रसर है।
 
सैन्य एआई के समर्थकों का तर्क है कि यह तेजी से निर्णय लेने, अधिक सटीकता और युद्ध में हताहतों की संख्या को कम करने में मदद करेगा। वैसे पिछले साल, मिडिल ईस्ट आई ने बताया कि एक इजरायली खुफिया कार्यालय ने कहा कि गाजा में प्रत्येक एआई-जनित लक्ष्य की मानव समीक्षा करना बिल्कुल भी संभव नहीं है। एक अन्य सूत्र ने को बताया कि वे व्यक्तिगत रूप से प्रत्येक लक्ष्य के लिए 20 सेकंड लगाएंगे, जो केवल अनुमोदन से ज्यादा और कुछ नहीं होगा।
 
नवीनतम रिपोर्ट पर इजरायली रक्षा बल की प्रतिक्रिया में कहा गया है, विश्लेषकों को स्वतंत्र परीक्षा आयोजित करनी चाहिए जिसमें वे सत्यापित करें कि पहचाने गए लक्ष्य अंतरराष्ट्रीय कानून के अनुसार प्रासंगिक परिभाषाओं को पूरा करते हैं।
 
सटीकता के लिए नवीनतम रिपोर्ट में दावा किया गया है कि लैवेंडर पहचान और क्रॉस-चेकिंग की प्रक्रिया को स्वचालित करता है ताकि यह सुनिश्चित किया जा सके कि संभावित लक्ष्य हमास का एक वरिष्ठ सैन्य व्यक्ति है। रिपोर्ट के अनुसार लैवेंडर ने निम्न-रैंकिंग कर्मियों और साक्ष्य के कमजोर मानकों को शामिल करने के लिए लक्ष्ईकरण मानदंडों को ढीला कर दिया और लगभग 10 प्रतिशत मामलों में त्रुटियां कीं।
 
रिपोर्ट में यह भी दावा किया गया है कि एक इजरायली खुफिया अधिकारी ने बताया है कि व्हेयर इज डैडी? से जानकारी मिलने पर प्रणाली, लक्ष्यों पर बिना किसी हिचकिचाहट के, पहले विकल्प के तौर पर उनके घरों पर बमबारी करेगी, जिससे नागरिक हताहत होंगे। इजरायली सेना का कहना है कि वह हजारों लोगों को उनके घरों में मारने की किसी भी नीति के दावे को सिरे से खारिज करती है।
 
जैसे-जैसे एआई का सैन्य उपयोग आम होता जा रहा है, नैतिक और कानूनी चिंताओं पर बहुत कम ध्यान दिया गया है। सैन्य एआई के बारे में अभी तक कोई स्पष्ट, सार्वभौमिक रूप से स्वीकृत या कानूनी रूप से बाध्यकारी नियम नहीं हैं।
 
संयुक्त राष्ट्र 10 वर्षों से अधिक समय से घातक स्वायत्त हथियार प्रणालियों पर चर्चा कर रहा है। ये उपकरण ऐसे हैं जो मानव इनपुट के बिना लक्ष्य साधने और फायरिंग करने का निर्णय ले सकते हैं जिन्हें कभी-कभी हत्यारे रोबोट के रूप में जाना जाता है।
 
संयुक्त राष्ट्र महासभा ने यह सुनिश्चित करने के लिए एक नए मसौदा प्रस्ताव के पक्ष में मतदान किया कि एल्गोरिदम को हत्या से जुड़े निर्णयों पर पूर्ण नियंत्रण नहीं होना चाहिए। पिछले अक्टूबर में अमेरिका ने एआई और स्वायत्तता के जिम्मेदार सैन्य उपयोग पर एक घोषणा भी जारी की जिसे तब से 50 अन्य देशों ने समर्थन दिया है। सैन्य एआई के जिम्मेदार उपयोग पर पहला शिखर सम्मेलन भी पिछले साल नीदरलैंड और कोरिया गणराज्य की सह-मेजबानी में आयोजित किया गया था।
 
कुल मिलाकर, सैन्य एआई के उपयोग पर अंतरराष्ट्रीय नियम उच्च तकनीक, एआई-सक्षम युद्ध के लिए देशों और हथियार कंपनियों के उत्साह के साथ तालमेल रखने के लिए संघर्ष कर रहे हैं। एआई-सक्षम उत्पाद बनाने वाले कुछ इजराइली स्टार्टअप कथित तौर पर गाजा में अपने उपयोग को विक्रय बिंदु बना रहे हैं। फिर भी गाजा में एआई सिस्टम के उपयोग पर रिपोर्टिंग से पता चलता है कि एआई गंभीर मानवीय नुकसान भले पहुंचा ले, लेकिन सटीक युद्ध के सपने को पूरा करने के मामले में बहुत पीछे है।
 
एआई सुझावों को बिना किसी मानवीय जांच के स्वीकार करना भी संभावित लक्ष्यों के दायरे को बढ़ाता है जिससे अधिक नुकसान होता है। लैवेंडर और हब्सोरा पर रिपोर्ट हमें दिखाती है कि वर्तमान सैन्य एआई पहले से ही क्या करने में सक्षम है। सैन्य एआई के भविष्य के जोखिम और भी बढ़ सकते हैं।
 
उदाहरण के लिए, चीनी सैन्य विश्लेषक चेन हंगहुई ने भविष्य की युद्धक्षेत्र विलक्षणता की कल्पना की है जिसमें मशीनें निर्णय लेती हैं और इतनी तेज गति से कार्रवाई करती हैं कि कोई इंसान उनका अनुसरण नहीं कर सकता। इस परिदृश्य में हम दर्शकों या हताहतों से अधिक कुछ नहीं रह गए हैं।(भाषा)
 
Edited by: Ravindra Gupta
ये भी पढ़ें
चीन ने कहा, भारत के साथ सीमा विवाद सुलझाने में सकारात्मक प्रगति