आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) से जुड़े नीतिशास्त्री और दार्शनिक विंसेंट म्युलर सामाजिक बहस की मांग उठा रहे हैं जबकि प्राणियों को अपने अस्तित्व का डर सताने लगा है। आखिर आर्टिफिशियल इंटेलिजेंस की डोर किसके हाथ में होगी? जर्मन क्रिएटिव इंडस्ट्री से जुड़े 15 संगठनों ने आर्टिफिशियल इंटेलिजेंस के विषय पर एआई बट फेयर (एआई लेकिन न्यायसंगत) नारे के तहत एक पॉलिसी पेपर प्रकाशित किया है।
				  																	
									  
	 
	ये तमाम चीजें आज मुमकिन हैं, चैटजीपीटी, स्टेबल डिफ्यूजन या आइवा जैसी एआई प्रणालियों की बदौलत, जो टेक्स्ट लिखते हैं, मनमुताबिक छवियां गढ़ देते हैं या संगीत की रचना कर लेते हैं- और ये सब चुटकियों में और इतना तफ्सीली और मुकम्मल कि दुनिया दांतों तले उंगली दबा ले। लेकिन फिर चिंता में भी पड़ जाए।
				  
	 
	हनोवर में कंटेंट क्रिएट करने वाली एजेंसी फुंडवर्ट के संस्थापक रॉबर्ट एक्सनर आगाह करते हैं कि एआई के आने के बाद वे रचनात्मक सेवाएं जो पहले आला दर्जे के विशेषज्ञ ही मुहैया करा पाते थे, अब बड़े पैमाने पर तैयार की जा सकती हैं। एआई सिस्टम इंसानी-रचनात्मक विचार और कार्य के मूल्य को नीचा दिखाता है। एक्सनर को लगता है कि उनकी आजीविका पर खतरा मंडराने लगा है और वे उसकी हिफाजत करना चाहते हैं।
				  						
						
																							
									  
	 
	जर्मन क्रिएटिव इंडस्ट्री से जुड़े 15 संगठनों ने आर्टिफिशियल इंटेलिजेंस के विषय पर एआई बट फेयर (एआई लेकिन न्यायसंगत) नारे के तहत एक पॉलिसी पेपर प्रकाशित किया है।
				  																													
								 
 
 
  
														
																		 							
																		
									  
	 
	इस पर्चे में कॉपीराइटिंग, एडिटिंग, जर्नलिज्म, ग्राफिक्स, इलेस्ट्रेशन, फोटोग्राफी और आर्ट जैसे क्षेत्रों से जुड़े संगठन गैरवाजिब इस्तेमाल के खिलाफ अपने काम की हिफाजत का आह्वान कर रहे हैं। पर्चा तैयार करने में भूमिका निभाने वाले एक्सनर कहते हैं कि कॉपीराइट कानून को अविलंब मजबूत बनाने की जरूरत है ताकि रचनाशील पेशेवरों को अपनी मेहनत का इनाम मिलता रह सके।
				  																	
									  
	 
	एआई को चाहिए प्रशिक्षण सामग्री
	 
	दरअसल, अल्गोरिद्म आधारित एआई सिस्टम, मुनासिब प्रशिक्षण सामग्री के बिना टेक्स्ट, छवियां या संगीत नहीं तैयार कर सकते हैं। एक्सनर ने डीडब्ल्यू को बताया कि लर्निंग सिस्टम को जरूरी डाटा मुहैया कराने के लिए, डेवलपर हमसे पूछे बिना, सहमति लिए बिना और मुआवजा दिए बिना, हमारा काम इस्तेमाल करते हैं। हमारी कीमत पर ये सेल्फसर्विस हमें नामंजूर है!
				  																	
									  
	 
	सैद्धांतिक रूप से दार्शनिक विंसेंट म्युलर का भी यही मानना है। म्युलर कि आर्टिफिशियल इंटेलिजेंस का दर्शन और नीति के उभरते विषय पर एरलान्गेन-न्युरेमबर्ग यूनिवर्सिटी में शोध कार्य करते हैं।
				  																	
									  
	 
	म्युलर कहते हैं कि जाहिर है इस डाटा पर कॉपीराइट लगेगा। ये सही है कि एआई प्रणालियां डाटा को महज रिप्रोड्यूस नहीं करेंगी बल्कि कुछ रचते वक्त जिस मौजूद सामग्री का इस्तेमाल वे करती हैं, उससे कुछ सीख रही होंगी। लेकिन इस पर कॉपीराइट किसका होगा? म्युलर कहते हैं कि आप मुफ्त में हासिल चीजों से अगर कोई नयी चीज बनाते हैं जिसका आर्थिक मूल्य है तो वो एक सामाजिक समस्या है।
				  																	
									  
	 
	एआई नियमों की कमी
	 
	सबसे बड़ी समस्या, संभवतः नियमों की कमी है। जर्मन सांस्कृतिक संगठनों के छाता संगठन जर्मन सांस्कृतिक परिषद ने हाल में नए नियमों की मांग की थी। क्रिएटिव उद्योग अब डिजिटल क्षेत्र में बौद्धिक संपदा, कॉपीराइट के असरदार कानून और डाटा सुरक्षा की मांग कर रहा है।
				  																	
									  
	 
	हनोवर स्थित रॉबर्ट एक्सनर कहते हैं। हम लोग उम्मीद करते हैं कि जर्मनी के सांस्कृतिक और रचनात्मक उद्योगों में नौकरी कर रहे अंदाजन 18 लाख लोगों की खातिर राजनीतिज्ञ उठ खड़े होंगे।
				  																	
									  
	 
	अभी ये भले ही हर किसी को स्पष्ट नहीं है, आर्टिफिशियल इंटेलिजेंस को हमारी रोजमर्रा की जिंदगियों में दाखिल हुए लंबा अरसा हो चुका है। प्रकाशक बेस्टसेलर किताब के लिए एआई के जरिए पांडुलिपियां खंगालते हैं। समाचार संपादक एआई के राइटिंग प्रोग्रामों का उपयोग करते हैं। एआई भाषाओं को या स्पीच को टेक्स्ट में बदलती है। बीमा कंपनियां एआई की मदद से नुकसान के जोखिमों का अंदाजा लगाती हैं। इंटरनेट वेबसाइटें अपने विजिटरों को उनके मनमुताबिक विज्ञापन दिखाती हैं, ये सब एआई की बदौलत मुमकिन हुआ है।
				  																	
									  
	 
	एआई से जुड़े नीतिशास्त्री विंसेंट म्युलर कहते हैं कि बात ये है कि एआई से किसे फायदा होता है और क्या वो फायदा, समग्र रूप से समाज के लिए ज्यादा नकारात्मक या सकारात्मक है। दूसरे शब्दों में, दूसरे के अधिकारों की हिफाजत हो रही है या नहीं।
				  																	
									  
	 
	म्युलर के अंदाजे के मुताबिक आर्टिफिशियल इंटेलिजेंस का इस्तेमाल सांस्कृतिक उथल-पुथल की ओर ले जा सकता है। सांस्कृतिक उथल-पुथल ये इस रूप में होगी कि ज्यादा से ज्यादा फैसले, ऑटोमेटड सिस्टम यानी स्वचालित प्रणालियां कर रही होंगी।
				  																	
									  
	 
	वो कहते हैं कि इसमें तब तो कोई समस्या नहीं होगी जब पार्किंग टिकट स्वचालित ढंग से हासिल हो जाए। लेकिन ऐसे फैसले और भी होंगे। और हमें ही ये सोचना होगा कि कौन से फैसले हम मशीन की प्रणालियों पर छोड़ दें और किन मामलों में हम मशीन का अपनी मदद के लिए इस्तेमाल करें।
				  																	
									  
	 
	स्वचालित फैसले किस हद तक समस्या खड़ी कर सकते हैं, इसकी एक झलक 2022 में नीदरलैंड्स के चाइल्डकेयर बेनेफिट अफेयर में दिखती है। चाइल्ड केयर लाभों के लिए अप्लाई करने वाले व्यक्तियों के रिस्क प्रोफाइल तैयार करने के लिए नीदरलैंड्स के टैक्स और कस्टम्स प्रशासन ने वे अल्गोरिद्म लागू किए जिनमें विदेशी ध्वनि वाले नाम और दोहरी नागरिकता को संभावित फर्जीवाड़े के सूचकों की तरह इस्तेमाल किया गया था।
				  																	
									  
	 
	नतीजतन, हजारों कम और मध्यम आय वाले परिवार, स्क्रूटनी की जद में आ गए, उन पर फ्रॉड का गलत आरोप लगा और जो लाभ उन्हें कानूनन हासिल हुए थे, उन्हें लौटाने को कह दिया गया। रेशियल प्रोफाइलिंग करने वाले यानी नस्ली खाका खींचने वाले ये अल्गोरिद्म, हजारों लोगों को वित्तीय गर्त में झोंक देने का सबब बने।
				  																	
									  
	 
	म्युलर कहते हैं कि इसका सबक ये है कि हमें इस बारे में एक सामाजिक बहस करनी होगी कि हम क्या करना चाहते हैं और क्या नहीं करना चाहते हैं।
				  																	
									  
	 
	यूरोपीय संघ ने बनाया कानूनी ढांचा
	 
	व्यवहारिक तौर पर कमोबेश सभी ये मानते हैं कि कानूनों के बगैर तो इसका काम करना बहुत मुश्किल है। म्युलर इससे सहमत हैं। वो यूरोपीय आयोग की एक पहल की ओर इशारा करते हैं जिसमें स्वचालित निर्णय करने वाली प्रणालियों को रेगुलेट किया जाना है। यूरोपीय संघ के प्रस्ताव में उन हाई-रिस्क एप्लीकेशनों की सूची शामिल है जिन्हें चालू करने से पहले मंजूरी की जरूरत होगी।
				  																	
									  
	 
	उदाहरण के लिए सार्वजनिक स्थानों पर लोगों की शिनाख्त के लिए बायोमीट्रिक सिस्टम का रियल-टाइम उपयोग कुछ अपवादों तक सीमित रखना होगा जैसे कि आतंकवाद से लड़ाई के लिए। अच्छा व्यवहार जबरन अमल में लाने के लिए जैसा एआई का परीक्षण चीन में चल रहा है, ऐसे सोशल क्रेडिट सिस्टमों पर फौरन प्रतिबंध लगा देना चाहिए।
				  																	
									  
	 
	लेकिन क्या इतने भर से एआई ज्यादा भरोसेमंद बन पाएगा जो तेजी से पांव पसारता जा रहा है और बड़ी संख्या में लोगों को चिंता में डाल रहा है? दार्शनिक और एआई शोधकर्ता म्युलर कहते हैं कि एआई इंसानों और मशीनों के बीच मनोवैज्ञानिक संबंध को बदल रहा है। आमतौर पर हम सोचते हैं कि मशीन एक सीमित स्वायत्तता वाली चीज है जिस पर अंतिम नियंत्रण आखिरकार इंसानों का ही होता है। लेकिन वह कहते हैं कि मशीन को ज्यादा स्वायत्तता देते ही ये चीज बदल जाती है, क्योंकि तब दखल देने की संभावनाएं भी बदल जाती हैं।
				  																	
									  
	 
	अपनी कार कितना समझ में आती है?
	 
	विंसेंट म्युलर ने गौर किया है कि नियंत्रण गंवा देने का डर किसी और चीज की वजह से बढ़ जाता हैः कई लोग एआई नियंत्रित मशीन को एक गूढ़ ब्लैक बॉक्स की तरह देखते हैं। जाहिर है, दूसरी और भी कई प्रौद्योगिकियों के साथ भी यही बात है- जैसे कि, बामुश्किल ही कोई आज, कार की अंदरूनी बारीकियों का जानकार होगा। लेकिन अगर एक कम्प्यूटर ये फैसला करता है कि आपको कर्ज नहीं मिल सकता तो ये बात किसी भी तरह समझ में नहीं आती।
				  																	
									  
	 
	आर्टिफिशियल इंटेलिजेंस के खतरों से जुड़ी चिंताएं, डेवलपरों और निवेशकों को भी खाए जा रही है। टेस्ला के सीईओ इलॉन मस्क समेत एआई और टेक उद्योगों में जानेमाने विशेषज्ञों ने हाल में जारी एक नाटकीय अपील में एआई विकास में 6 महीने का विराम देने का आह्वान किया था। फ्यूचर ऑफ लाइफ नाम के एक एनजीओ ने खुला खत लिखकर मांग की है कि (रोक का) वो समय इस नितांत नयी प्रौद्योगिकी के लिए नियम-कायदे बनाने में इस्तेमाल किया जाए।
				  																	
									  
	 
	शक्तिशाली एआई प्रणालियां तब तक विकसित न की जाएं जब तक कि हमें भरोसा न हो जाए कि उनका असर सकारात्मक है और उनसे जुड़े खतरों से निपटना आसान है। मस्क के अलावा 1000 से ज्यादा लोगों ने इस घोषणापत्र पर दस्तखत किए। इनमें एआई कंपनी स्टेबिलिटी एआई के प्रमुख एमाद मोस्टाक्वे, एप्पल के संस्थापक स्टीव वोजनियार और गूगल की सहायक कंपनी डीपमाइंड से जुड़े कई डेवलपर भी शामिल थे।
				  																	
									  
	 
	ब्लैक बॉक्स बन गए प्रोग्राम
	 
	अपील के मुताबिक ये प्रौद्योगिकियां अब इतनी उच्चीकृत हो चुकी हैं कि डेवलपर भी उन्हें पूरी तरह से नहीं समझ सकते, और ना ही उनके प्रोग्राम को असरदार ढंग से नियंत्रित कर सकते हैं। नतीजतन, सूचना के तमाम चैनलों पर दुष्प्रचार, फर्जीवाड़े और झूठों का बोलबाला हो सकता है और लोगों से उनके रोजगार छिन सकते हैं। इस कारण, अगली पीढ़ी के आर्टिफिशियल इंटेलिजेंस प्रोग्रामों पर काम कर रहे तमाम डेवलपरों को सार्वजनिक तस्दीकी के साथ अपना काम बंद कर देना चाहिए। मांग की गई है कि अगर ये काम फौरन न हुआ तो राज्यों को इस पर प्रतिबंध लगा देना चाहिए।
				  																	
									  
	 
	नियम बनाने का आह्वान एआई विशेषज्ञों और जर्मनी के क्रिएटिव पेशेवरों को एक साथ ले आया है। रचनाधर्मी पेशेवरों को डिजिटल शोषण का डर है इसलिए वे सुरक्षा और मानदेय की मांग कर रहे हैं। ये चीज पूरी तरह से बंद हो भी पाएंगी या नहीं, देखने की बात है। तब तक, चैटजीपीटी और दूसरे एआई सिस्टम हमें कई वजहों से हैरान-परेशान करते रहेंगे।