मशीन किलर का भूत जारी है। राष्ट्रपति पुतिन किसमें विश्वास करते हैं?
प्रौद्योगिकी

मशीन किलर का भूत जारी है। राष्ट्रपति पुतिन किसमें विश्वास करते हैं?

सैन्य रोबोट (1) के समर्थकों का तर्क है कि स्वचालित हथियार मानव जीवन की रक्षा के लिए अधिक क्षमताएं प्रदान करते हैं। मशीनें सैनिकों की तुलना में दुश्मन के करीब पहुंच सकती हैं और खतरे का सही आकलन कर सकती हैं। और भावनाएँ कभी-कभी सही निर्णय लेने की क्षमता को पंगु बना देती हैं।

हत्यारे रोबोटों के उपयोग के कई समर्थकों का दृढ़ विश्वास है कि वे युद्धों को कम खूनी बना देंगे क्योंकि कम सैनिक मरेंगे। उन्होंने ध्यान दिया कि रोबोट, हालांकि उन्हें दया महसूस नहीं करते हैं, घबराहट, क्रोध और बदले जैसी नकारात्मक मानवीय भावनाओं से प्रतिरक्षित हैं, जो अक्सर युद्ध अपराधों का कारण बनते हैं।

मानवाधिकार कार्यकर्ता इस तर्क का भी उपयोग करते हैं कि सेना के कारण पिछली आधी सदी में नागरिक हताहतों की संख्या में भारी कमी आई है, और सेना का रोबोटीकरण युद्ध के कानूनों को सख्ती से लागू करने के लिए एक तंत्र की शुरूआत की अनुमति देता है। उनका तर्क है कि मशीनें तब नैतिक हो जाएंगी जब वे ऐसे सॉफ़्टवेयर से लैस होंगी जो उन्हें युद्ध के कानूनों का पालन करने के लिए मजबूर करेगी।

बेशक, बहुत प्रसिद्ध लोगों सहित बड़ी संख्या में लोगों ने वर्षों से इस राय को साझा नहीं किया है। अप्रैल 2013 में, नारे (2) के साथ एक अंतर्राष्ट्रीय अभियान शुरू किया गया था। इसके ढांचे के भीतर, गैर-सरकारी संगठन स्वायत्त हथियारों के उपयोग पर पूर्ण प्रतिबंध की मांग कर रहे हैं। कई देशों के विशेषज्ञ पहली बार मई 2014 में जिनेवा में संयुक्त राष्ट्र निरस्त्रीकरण सम्मेलन में इस विषय पर चर्चा करने के लिए बैठे। ह्यूमन राइट्स वॉच और हार्वर्ड यूनिवर्सिटी के वैज्ञानिकों द्वारा कुछ महीने बाद प्रकाशित एक रिपोर्ट में कहा गया है कि स्वायत्त वाले बहुत खतरनाक होंगे - उन्होंने अपना लक्ष्य खुद चुना और लोगों को मार डाला। साथ ही, यह बहुत स्पष्ट नहीं है कि किसे जवाबदेह ठहराया जाना चाहिए।

2. "स्टॉप किलर रोबोट्स" अभियान के भाग के रूप में प्रदर्शन

छोटे ड्रोनों का झुंड क्या कर सकता है?

किलर रोबोट (आरओआर) को लेकर विवाद वर्षों से चल रहा है और लगातार जारी है। हाल के महीनों में सैन्य रोबोटों को रोकने के नए प्रयास और इस प्रकार की नई परियोजनाओं के बारे में रिपोर्टों की बाढ़ आ गई है, जिनमें से कुछ का वास्तविक युद्ध स्थितियों में भी परीक्षण किया जा रहा है।

नवंबर 2017 में एक वीडियो दिखाया जा रहा है मिनी ड्रोन के घातक झुंड ., भयानक कार्रवाई में. दर्शकों ने देखा कि अब हमें सामूहिक रूप से और स्वचालित हथियारों से मारने के लिए शिकारियों द्वारा फेंके गए भारी लड़ाकू वाहनों, टैंकों या मिसाइलों की आवश्यकता नहीं है। मुख्य निदेशक स्टुअर्ट रसेल, बर्कले में कृत्रिम बुद्धिमत्ता के प्रोफेसर, कहते हैं:

-

पिछला वसंत पचास प्रोफेसर दुनिया भर के अग्रणी विश्वविद्यालयों ने कोरिया एडवांस्ड इंस्टीट्यूट ऑफ साइंस एंड टेक्नोलॉजी (KAIST) और उसके सहयोगी हनवा सिस्टम्स के लिए एक अपील पर हस्ताक्षर किए हैं। उन्होंने घोषणा की कि वे विश्वविद्यालय के साथ सहयोग नहीं करेंगे या KAIST मेहमानों की मेजबानी नहीं करेंगे। इसका कारण दोनों संस्थानों द्वारा किया गया "स्वायत्त हथियारों" का निर्माण था। KAIST ने मीडिया रिपोर्टों का खंडन किया।

इसके तुरंत बाद संयुक्त राज्य अमेरिका में 3 से अधिक Google कर्मचारी सेना के लिए कंपनी के काम का विरोध किया। वे चिंतित थे कि Google मावेन कोडनाम वाली एक सरकारी परियोजना के साथ साझेदारी कर रहा है, जिसका उद्देश्य सैन्य ड्रोन वीडियो में वस्तुओं और चेहरों को पहचानने के लिए एआई का उपयोग करना है। कंपनी के अधिकारियों का कहना है कि मावेन का लक्ष्य जीवन बचाना और लोगों को कठिन काम से राहत दिलाना है, न कि आक्रामकता। प्रदर्शनकारी आश्वस्त नहीं थे.

लड़ाई का अगला भाग बयान था कृत्रिम बुद्धि के क्षेत्र में विशेषज्ञ, सहित। Google प्रोजेक्ट पर काम कर रहा हूँ और एलोन मस्क. वे रोबोट विकसित नहीं करने का वादा करते हैं। वे सरकारों से इन हथियारों को विनियमित और प्रतिबंधित करने के प्रयास बढ़ाने का भी आह्वान करते हैं।

बयान में विशेष रूप से कहा गया है कि "किसी व्यक्ति की जान लेने का निर्णय कभी भी मशीन द्वारा नहीं किया जाना चाहिए।" हालाँकि दुनिया की सेनाएँ विभिन्न प्रकार के स्वचालित उपकरणों से सुसज्जित हैं, कभी-कभी उच्च स्तर की स्वायत्तता के साथ, कई विशेषज्ञों को डर है कि भविष्य में यह तकनीक पूरी तरह से स्वायत्त हो सकती है, जिससे यह किसी मानव ऑपरेटर या कमांडर की भागीदारी के बिना मारने की अनुमति देगी।

विशेषज्ञ यह भी चेतावनी देते हैं कि स्वायत्त हत्या मशीनें "परमाणु, रासायनिक और जैविक हथियारों" से भी अधिक खतरनाक हो सकती हैं क्योंकि वे आसानी से नियंत्रण से बाहर हो सकती हैं। कुल मिलाकर, पिछले साल जुलाई में, फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) के तत्वावधान में एक पत्र पर 170 संगठनों और 2464 व्यक्तियों ने हस्ताक्षर किए थे। 2019 के शुरुआती महीनों में, FLI से जुड़े चिकित्सा वैज्ञानिकों के एक समूह ने फिर से कृत्रिम बुद्धिमत्ता (AI)-नियंत्रित हथियारों के विकास पर प्रतिबंध लगाने के लिए एक नया पत्र मांगा।

सैन्य "हत्यारे रोबोट" के संभावित कानूनी विनियमन पर पिछले साल अगस्त में गनेवो में संयुक्त राष्ट्र की बैठक मशीनों की सफलता के साथ समाप्त हुई। संयुक्त राज्य अमेरिका, रूस और इज़राइल सहित देशों के एक समूह ने इन हथियारों (कुछ पारंपरिक हथियारों पर मसौदा कन्वेंशन, सीसीडब्ल्यू) पर अंतरराष्ट्रीय प्रतिबंध लगाने के आगे के प्रयासों को अवरुद्ध कर दिया है। यह कोई संयोग नहीं है कि ये वे देश हैं जो उन्नत स्वायत्त और रोबोटिक हथियार प्रणालियों पर अपने काम के लिए जाने जाते हैं।

रूस लड़ाकू रोबोटों पर ध्यान केंद्रित करता है

राष्ट्रपति व्लादिमीर पुतिन को अक्सर सैन्य कृत्रिम बुद्धिमत्ता प्रणालियों और लड़ाकू रोबोटों के बारे में यह कहते हुए उद्धृत किया जाता है:

-.

खुलेआम स्वायत्त हथियार विकसित करने की बात करता है. इसके सशस्त्र बलों के जनरल स्टाफ के प्रमुख जनरल वालेरी गेरासिमोव ने हाल ही में सैन्य समाचार एजेंसी इंटरफैक्स-एवीएन को बताया कि रोबोट का उपयोग भविष्य के युद्धों की मुख्य विशेषताओं में से एक होगा। उन्होंने कहा कि रूस कोशिश कर रहा है युद्धक्षेत्र को पूरी तरह से स्वचालित करें. उप प्रधान मंत्री दिमित्री रोगोज़िन और रक्षा मंत्री सर्गेई शोइगु ने भी इसी तरह की टिप्पणियाँ कीं। रक्षा और सुरक्षा पर फेडरेशन काउंसिल कमेटी के अध्यक्ष विक्टर बॉन्डारेव ने कहा कि रूस विकास के लिए प्रयासरत है रोजू टेक्नोलॉजीजइससे ड्रोन नेटवर्क एक इकाई के रूप में कार्य कर सकेंगे।

यह आश्चर्य की बात नहीं है अगर हम याद रखें कि पहला टेलीटैंक 30 के दशक में सोवियत संघ में विकसित किया गया था। इनका उपयोग द्वितीय विश्व युद्ध की शुरुआत में किया गया था। आज रूस भी सृजन कर रहा है रोबोट टैंक अधिक से अधिक स्वायत्त बनें।

पुतिन के राज्य ने हाल ही में सीरिया को अपना भेजा है मानवरहित लड़ाकू वाहन उरण-9 (3). उपकरण का जमीनी नियंत्रण बिंदुओं से संपर्क टूट गया, निलंबन प्रणाली में समस्या आ गई, और इसके हथियार पूरी तरह से काम नहीं कर सके और चलते लक्ष्य पर हमला नहीं कर सके। यह बहुत गंभीर नहीं लगता है, लेकिन कई लोग सीरियाई वाइप को एक अच्छा युद्ध परीक्षण मानते हैं जो रूसियों को मशीन में सुधार करने की अनुमति देगा।

रोस्कोस्मोस ने इस साल अगस्त तक अंतर्राष्ट्रीय अंतरिक्ष स्टेशन पर दो रोबोट भेजने की प्रारंभिक योजना को मंजूरी दे दी है। Fedor (4) मानव रहित संघ में। बोझ की तरह नहीं, लेकिन... फिल्म रोबोकॉप की तरह, फ्योडोर एक हथियार चलाता है और शूटिंग अभ्यास के दौरान घातक सटीकता का प्रदर्शन करता है।

सवाल उठता है: अंतरिक्ष में कोई रोबोट हथियारों से लैस क्यों होगा? संदेह है कि यह केवल जमीनी अनुप्रयोगों का मामला नहीं है। इसी बीच पृथ्वी पर रूसी हथियार निर्माता कलाश्निकोव ने एक दृश्य दिखाया गुलाम इगोरेकहालाँकि, इसने बहुत हँसी का कारण बना, यह संकेत दिया कि कंपनी स्वायत्त लड़ाकू वाहनों पर गंभीरता से काम कर रही है। जुलाई 2018 में, कलाश्निकोव ने घोषणा की कि वह एक हथियार बना रहा है जिसका उपयोग वह शूट-डोंट-शूट निर्णय लेने के लिए करेगा।

इस जानकारी में यह रिपोर्ट जोड़ी जानी चाहिए कि रूसी बंदूकधारी डिग्टिएरेव ने एक छोटा सा विकसित किया है स्वायत्त टैंक नेरेखट जो चुपचाप अपने लक्ष्य की ओर बढ़ सकता है और फिर शक्तिशाली बल के साथ विस्फोट करके दूसरों या पूरी इमारतों को नष्ट कर सकता है। और टैंक T14 आर्मटा रूसी सशस्त्र बलों का गौरव, संभावित रिमोट कंट्रोल और मानव रहित ड्राइविंग के लिए डिज़ाइन किया गया था। स्पुतनिक का दावा है कि रूसी सैन्य इंजीनियर टी-14 को पूरी तरह से स्वायत्त बख्तरबंद वाहन बनाने के लिए काम कर रहे हैं।

विपक्ष निर्देश

अमेरिकी सेना ने स्वयं अपने हथियारों की स्वायत्तता के स्तर पर काफी स्पष्ट सीमा लगा दी है। 2012 में, अमेरिकी रक्षा विभाग ने निर्देश 3000.09 जारी किया, जिसमें कहा गया है कि लोगों को सशस्त्र रोबोटों की गतिविधियों पर आपत्ति करने का अधिकार होना चाहिए। (हालाँकि कुछ अपवाद भी हो सकते हैं)। यह निर्देश प्रभावी रहेगा. पेंटागन की वर्तमान नीति यह है कि हथियारों के उपयोग में निर्णायक कारक हमेशा व्यक्ति ही होना चाहिए, और ऐसा निर्णय अवश्य लिया जाना चाहिए। युद्ध के नियमों का पालन करता है.

हालाँकि अमेरिकी दशकों से फ्लाइंग, प्रीडेटर, रीपर और कई अन्य सुपर मशीनों का उपयोग कर रहे हैं, लेकिन वे स्वायत्त मॉडल नहीं थे और न ही हैं। इन्हें ऑपरेटरों द्वारा दूर से नियंत्रित किया जाता है, कभी-कभी तो कई हजार किलोमीटर की दूरी से भी। प्रोटोटाइप के प्रीमियर के साथ ही इस प्रकार की मशीनों की स्वायत्तता के बारे में गरमागरम बहस शुरू हो गई। X-47B ड्रोन (5), जो न केवल स्वतंत्र रूप से उड़ता था, बल्कि एक विमानवाहक पोत से उड़ान भर सकता था, उस पर उतर सकता था और हवा में ईंधन भर सकता था। अर्थ मानवीय हस्तक्षेप के बिना गोली मारना या बम गिराना भी है। हालाँकि, परियोजना अभी भी परीक्षण और समीक्षा के अधीन है।

5. अमेरिकी विमानवाहक पोत पर मानव रहित X-47B का परीक्षण

2003 में, रक्षा विभाग ने एक छोटे टैंक जैसे रोबोट के साथ प्रयोग शुरू किया। SWEEDS , मशीन गन से सुसज्जित। 2007 में उसे इराक भेजा गया. हालाँकि, प्रोग्राम तब समाप्त हो गया जब रोबोट ने अप्रत्याशित व्यवहार करना शुरू कर दिया, राइफल को गलत तरीके से हिलाना शुरू कर दिया। परिणामस्वरूप, अमेरिकी सेना ने कई वर्षों तक सशस्त्र ज़मीनी रोबोटों पर अनुसंधान छोड़ दिया।

साथ ही, अमेरिकी सेना ने अपना कार्य व्यय 20 में 2014 मिलियन अमेरिकी डॉलर से बढ़ाकर 156 में 2018 मिलियन अमेरिकी डॉलर कर दिया। 2019 में, यह बजट पहले ही बढ़कर 327 मिलियन अमेरिकी डॉलर हो गया है। यह कुछ ही वर्षों में 1823% की संचयी वृद्धि है। विशेषज्ञों का कहना है कि अमेरिकी सेना के पास 2025 की शुरुआत में युद्ध का मैदान हो सकता है वहां इंसानों से ज्यादा रोबोट सैनिक हैं.

हाल ही में अमेरिकी सेना की ओर से काफी विवाद पैदा किया गया है और इसकी घोषणा की गई है एटलस परियोजना () - स्वचालित। मीडिया में, इसे उपरोक्त निर्देश 3000.09 का उल्लंघन माना गया। हालांकि, अमेरिकी सेना इनकार करती है और आश्वासन देती है कि निर्णय लेने के चक्र से किसी व्यक्ति को बाहर करने का सवाल ही नहीं उठता।

एआई शार्क और नागरिकों को पहचानता है

हालाँकि, स्वायत्त हथियारों के रक्षकों के पास नए तर्क हैं। प्रो जॉर्जिया इंस्टीट्यूट ऑफ टेक्नोलॉजी के रोबोटिस्ट रोनाल्ड आर्किन ने अपने प्रकाशनों में कहा है आधुनिक युद्ध में, नागरिक हताहतों से बचने के लिए स्मार्ट हथियारों की आवश्यकता होती है, क्योंकि मशीन सीखने की तकनीक प्रभावी ढंग से लड़ाकों और नागरिकों के साथ-साथ उच्च-मूल्य और कम-मूल्य वाले लक्ष्यों के बीच अंतर करने में मदद कर सकती है।

ऐसे एआई कौशल का एक उदाहरण ऑस्ट्रेलियाई समुद्र तटों पर गश्त करना है। ड्रोन लिटिल रिपर, प्रौद्योगिकी विश्वविद्यालय सिडनी द्वारा विकसित शार्कस्पॉटर प्रणाली से सुसज्जित। यह प्रणाली स्वचालित रूप से शार्क के लिए पानी को स्कैन करती है और कुछ असुरक्षित दिखने पर ऑपरेटर को सचेत करती है। (6) यह पानी में लोगों, डॉल्फ़िन, नावों, सर्फ़बोर्ड और वस्तुओं की पहचान करके उन्हें शार्क से अलग कर सकता है। यह उच्च सटीकता के साथ लगभग सोलह विभिन्न प्रजातियों का पता लगा सकता है और उनकी पहचान कर सकता है।

6. शार्कस्पॉटर प्रणाली में मान्यता प्राप्त शार्क

ये उन्नत मशीन लर्निंग तकनीकें हवाई टोही की सटीकता में 90% से अधिक सुधार करती हैं। तुलना के लिए, समान स्थिति में एक मानव ऑपरेटर हवाई तस्वीरों में 20-30% वस्तुओं को सटीक रूप से पहचानता है। इसके अतिरिक्त, अलार्म बजने से पहले भी मानव द्वारा पहचान की पुष्टि की जाती है।

युद्ध के मैदान में, स्क्रीन पर छवि देखकर ऑपरेटर को यह निर्धारित करने में कठिनाई हो सकती है कि जमीन पर मौजूद लोग हाथों में एके-47 लिए लड़ाकू हैं या, उदाहरण के लिए, बाइक वाले किसान हैं। आर्किन का कहना है कि लोग "वही देखते हैं जो वे देखना चाहते हैं," विशेषकर तनावपूर्ण स्थितियों में। इस प्रभाव ने 1987 में यूएसएस विन्सेन्स द्वारा एक ईरानी विमान को दुर्घटनावश मार गिराने में योगदान दिया। बेशक, उनकी राय में, एआई-नियंत्रित हथियार मौजूदा "स्मार्ट बम" से बेहतर होंगे, जो वास्तव में बुद्धिमान नहीं हैं। पिछले अगस्त में, एक सऊदी लेजर-निर्देशित मिसाइल ने यमन में स्कूली बच्चों से भरी बस पर हमला किया, जिसमें चालीस बच्चे मारे गए।

आर्किन ने पॉपुलर मैकेनिक्स में कहा, "अगर एक स्कूल बस को ठीक से चिह्नित किया गया है, तो एक स्वायत्त प्रणाली में इसकी पहचान करना अपेक्षाकृत आसान हो सकता है।"

हालाँकि, ये तर्क प्रचारकों को स्वचालित हत्यारों के विरुद्ध आश्वस्त नहीं करते प्रतीत होते हैं। हत्यारे रोबोटों के खतरे के अलावा, विचार करने के लिए एक और महत्वपूर्ण कारक है। यहां तक ​​कि एक "अच्छी" और "विचारशील" प्रणाली को भी बहुत बुरे लोग हैक करके उस पर कब्ज़ा कर सकते हैं। तब सैन्य उपकरणों के बचाव में सभी तर्क बल खो देते हैं।

एक टिप्पणी जोड़ें