अग्नि आलोक

*आखिर डीपफेक से क्यों डरे मोदीश्री*

Share

      पुष्पा गुप्ता

     शिक्षा और चिकित्सा दो अतिरिक्त क्षेत्र हैं जो डीपफेक तकनीक से लाभान्वित हो सकते हैं। अपनी क्लास में शिक्षक आकर्षक पाठ प्रस्तुत करने के लिए दुर्लभ भाषणों का डीपफेक के ज़रिये उपयोग कर सकते हैं। स्वास्थ्य के शोबे को भी देखा जाए तो डीपफेक तकनीक का उपयोग करके एमआरआई स्कैन पर ट्यूमर को पहचानने की एक्यूरेसी को बढ़ाया जा सकता है।

      इससे ट्यूमर का इलाज करना आसान हो जाता है। डीपफेक वास्तविक रोगियों के डेटा के बजाय संश्लेषित डेटा का उपयोग करके अनुसंधान करने की अनुमति देता है, जिससे शोधकर्ता गोपनीयता संबंधी चिंताओं से बच सकते हैं।

  लेकिन साहब ज़ी तो साहब ज़ी हैं. चौकीदार साहब ज़ी को इससे डर लगता है.

       गौरतलब है की डीपफेक तकनीक का 95 प्रतिशत ‘सदुपयोग‘ पोर्न इंडस्ट्री में हो रहा है। किसकी इज़्जत कब उतर जाए, कहना मुश्किल है। लेकिन उसका राजनीतिक दुरूपयोग सत्ता के गलियारों में चिंता का सबब बन चुका है। भारत की तरह अमेरिका में भी आम चुनाव 2024 में है। जो बाइडेन डीपफेक से उतना ही चिंतित हैं, जितना कि मोदी। सवाल यह भी है कि डीपफेक का दुरूपयोग क्या राष्ट्रीय सुरक्षा का विषय नहीं है? डीपफेक एक ऐसा दानवी हथियार है, जो पड़ोसी देशों तक से संबंध बिगाड़ सकता है। 

       तो क्या 2024 चुनाव के समय डीपफेक के दुरूपयोग की चिंता प्रधानमंत्री मोदी को सताने लगी?

 पत्रकारों से दीवाली मिलन समारोह के दौरान अपनी चिंता साझा करते हुए पीएम मोदी ने कहा कि आप मुझे गरबा गीत गाते देख सकते हैं, जबकि मैने कभी ऐसा किया नहीं। डीपफेक वालों ने मुझे अन्य कई रूपों में प्रस्तुत कर रखा है। मोदी ने मोदी ने एक बड़ी चिंता को साझा किया है। अब इसमें पत्रकार केवल इतना ही कर सकते हैं कि ख़बरें प्रस्तुत करते समय डीपफेक का घ्यान रखें। हमारे देश के क़ानून ने केवल इतना इंतज़ाम कर लिया है कि जो लोग ऐसा करते पकड़े गये, उन्हें तीन साल की जेल और एक लाख रूपये तक जुर्माना ठोक सकता है। लेकिन क्या इतना उपाय काफी है?

       आर्टिफिशियल इंटेलीजेंस की मदद से कहीं का माल कहीं चिपका देना ‘एल्गोरिदम‘ कहा जाने लगा है। अमृत काल में इस कलाकारी को आर्टिफिशियल इंटेलीजेंस ने राकेट जैसी रफ़्तार दे दी है। 2014 में जब इसे इस्तेमाल में लाया गया, तब और आज के एल्गोरिदम में ज़मीन आसमान का अंतर आया है।

       प्रारंभ में, डीपफेक का उपयोग मुख्य रूप से हानिरहित और मनोरंजक उद्देश्यों के लिए किया जाता था, जैसे सेलिब्रिटी चेहरे की अदला-बदली करना, या फ़िर फिल्मों में चेहरे डालना। अब जैसे-जैसे तकनीक उन्नत हुई, वैसे-वैसे इसके दुरुपयोग की संभावना भी बढ़ती गई है।

    डीपफेक एल्गोरिदम अधिक परिष्कृत हो गए, जिससे अधिक साइबर कंटेंट में हेराफेरी करना सहज हो गया। 

‘डीपफेक‘ शब्द ‘डीप लर्निंग‘( सीखने की गहन शैली) और ‘फेक‘ (फर्जीवाडे) के संयोजन से बना है। यह सब गहन शिक्षण तकनीकों वाली प्रौद्योगिकी विशेष रूप से जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) पर निर्भर करती है, जिसे पहली बार 2014 में अमेरिकी कंप्यूटर साइंटिस्ट इयान गुडफेलो और उनकी टीम द्वारा पेश किया गया था। देखने में यह तकनीक तो क्रांतिकारी लगी, मगर इससे सकारात्मक कम और दुर्भावनापूर्ण उपयोग की संभावना ज़्यादा बढ़ गईं।

      बाद के दिनों में अमेरिका-यूरोप में राजनीतिक दुष्प्रचार फैलाने के काम यह ज़्यादा आने लगा। जबतक आप सफाई दें कि यह फेक है, उससे पहले करोड़ों लोग सोशल मीडिया पर साझा कर चुके होते हैं। पीएम मोदी स्वयं इस तकनीकी दानव से प्रकंपित हो चुके हैं, यह बात दीवाली मिलन समारोह में उनके दर्शनार्थी पत्रकारों ने भी महसूस किया था। 

      दिक्क़त क्या है कि हम देर से जगते हैं। सन दो हज़ार की शुरूआत में काल्पनिक महाकाव्य पर आधारित तीन एक्शन फिल्में बनी थीं। द लॉर्ड ऑफ द रिंग्स (2001), द फेलोशिप ऑफ द रिंग (2002), और द रिटर्न ऑफ द किंग (2003)। तीन खंडों में विभाजित यह ट्रियोलॉजी जे.आर.आर. टोलकिन द्वारा लिखित ‘द लॉर्ड ऑफ द रिंग्स‘ किताब पर आधारित थी, जिसने आर्टिफिशियल इंटेलीजेंस पर काम कर रहे लोगों को यह आइडिया दिया था कि आभासी दुनिया के ज़रिये फ़िल्म मेकिंग में बवाल काटा जा सकता है।

    2014 आते-आते ‘डीपफेक‘ जब अवतरित हुआ, हॉलीवुड की फ़िल्म मेकिंग में क्रांति आ गई। लेकिन डीपफेक ने जब अमेरिकी राजनीति में पिछले दरवाज़े से प्रवेश किया, तो सियायत हिलने लगी।

     एआई एल्गोरिदम द्वारा बनाए गए मनगढ़ंत वीडियो आज की तारीख में अमेरिकी राजनीति के सच को कल्पना के हथियार से धुंधला कर रहे हैं। 

भारत की तरह अमेरिका में भी आम चुनाव 2024 में है, जो बाइडेन प्रशासन डीपफेक से उतना ही चिंतित है, जितना कि मोदी। पर सवाल यह भी है कि डीपफेक का दुरूपयोग क्या राष्ट्रीय सुरक्षा का विषय नहीं है? डीपफेक एक ऐसा दानवी हथियार है, जो पड़ोसी देशों तक से संबंध बिगाड़ सकता है। इसके हवाले से पूछा जा सकता है कि हमारे राष्ट्रीय सुरक्षा सलाहकार अजीत डोभाल किस तरह की रणनीति तैयार कर रहे हैं?

      डीपफेक ने सिंथेटिक मीडिया के स्वरूप को तेज़ी से बदल दिया, जो कई वर्षों से अस्तित्व में है। पिछले एक साल में इसे मिडजर्नी जैसे कई नए जेनरेटिव एआई टूल द्वारा टर्बोचार्ज किया गया है, जो डीपफेक को और भी सस्ता और आसान बनाता है। यह सटीक डेटा जैसा दिखता है. इस सफलता ने डीपफेक तकनीक को और अधिक डेवलप करने, साथ में उसे सर्वसाधारण को सुलभ करने का रास्ता दिखा चुका है। 

      सेंटर फॉर ह्यूमन टेक्नोलॉजी के सह-संस्थापक, एजा रस्किन ने खुद इस महीने की शुरुआत में अपने सोशल मीडिया प्लेटफॉर्म, ‘ट्रुथ सोशल‘ पर सीएनएन एंकर एंडरसन कूपर के सामने एक छेड़छाड़ किया हुआ वीडियो साझा किया था। उस वीडियो फुटेज में लाइव प्रेसिडेंशियल बहस में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प अपने प्रतिद्वंद्वी जो बाइडेन से भिड़ रहे थे। यों, डीपफेक से बने उस वीडियो में दोनों के होठों की हरकत़ मेल नहीं खा रहे थे।

     मकसद यह बताना था कि 2024 के अमेरिकी चुनाव में डीपफेक रोका नहीं गया, तो नकली वीडियो रीयलपॉलिटिक की बैंड बजा देगा। 

यों, समाज पर डीपफेक तकनीक का नाकारात्मक प्रभाव बहुआयामी है। इससे व्यक्तिगत और व्यावसायिक प्रतिष्ठा के साथ-साथ श्रव्य-दृश्य साक्ष्यों पर हमारे भरोसे का भूस्खलन करता है। डीपफेक में दुष्प्रचार अभियानों को तेज़ करने की क्षमता होती है, क्योंकि उनका उपयोग फर्जी समाचार या प्रचार के टूल के तौर पर किया जा सकता है। डीपफेक तकनीक का उदय आज की तारीख़ में सुरक्षा के लिए भी भयावह चुनौती बन चुका है। 

      उदाहरण के लिए, डीपफेक से बनी सामग्री प्रौद्योगिकी चेहरे की पहचान प्रणाली को धोखा दे सकती है। सुरक्षा उपायों को दरकिनार कर सकती है, और संवेदनशील सूचनाओं से समझौता कर सकती है। डीपफेक व्यक्तियों का प्रतिरूपण भी कर सकते हैं। पहचान की पिछले दरवाज़े से चोरी या सोशल इंजीनियरिंग हमलों के अवसर पैदा कर सकते हैं। यह व्यक्तियों, सरकार को प्रभावित करने वाले संगठनों, और यहां तक कि राष्ट्रीय सुरक्षा के लिए भी बड़ा ख़तरा पैदा करता है।

       डिपफेक एक ऐसा सिंथेटिक मीडिया है, जिसमें चित्र, वीडियो और ऑडियो शामिल हैं। जो आर्टिफिशियल इंटेलीजेंस द्वारा सृजित होते हैं, और जो ऐसे कंटेंट को चित्रित करते हैं, जो वास्तविकता में मौजूद है ही नहीं है। ऐसी घटनाएं, जो कभी घटित नहीं हुई हैं, उसे सच साबित करने की ताक़त डीपफेक में है।

 डीपफेक द्वारा उत्पन्न चुनौतियों से निपटने के लिए बहुआयामी तैयारियों की आवश्यकता है। डीपफेक की पहचान के लिए उससे भी अधिक परिष्कृत टूल विकसित करना साइबर संसार के लिए एक बड़ी चुनौती है, जो कम से कम भारत में विकसित नहीं हो पाया है। उसका दूसरा पक्ष क़ानूनी भी है। एक लाख का ज़ुर्माना और तीन साल की जेल जैसी धाराओं से फज़ीवाड़ा करने वाले डर जाएंगे, इसमें मुझे शक़ ही है। 

      डीपफेक के शिकार लोग आत्म हत्या भी कर सकते हैं, शायद काऩून बनाने वालों को इसकी संज़ीदगी का अंदाज़ा नहीं होगा। जो कुछ क़ानूनी उपाय मोदी काल में दिये गये हैं, वो नाकाफ़ी और कागज़ी शेर जैसे ही हैं। डीपफेक तकनीक का 95 प्रतिशत दुरूपयोग पोर्न इंडस्ट्री में हो रहा है। जो लोग मशहूर हस्तियों की नंग-धड़ंग क्लिप डीपफेक के ज़रिये बना रहे हैं, उन्हें पांच डॉलर से लेकर 50 डॉलर तक का पेमेंट वीज़ा, मास्टर कार्ड या क्रिप्टोकरेंसी के माध्यम से दिया जा रहा है।

      लेकिन यह सब इतना डरावना है कि किनकी बहू-बेटियों की इज्ज़त कब नीलाम हो जाए, कहना मुश्किल है। बाद में उनके परिजन और जांच एजेंसियाँ  सफाई देती रहें कि यह फेक है। 

      2017 में इस्तेमाल किया जाने लगा जब एक रेडिट मॉडरेटर ने ऐसे वीडियो पोस्ट करना शुरू किया, जो मौजूदा अश्लील वीडियो में मशहूर हस्तियों हूबहू दिखाने के लिए फेस-स्वैपिंग तकनीक का इस्तेमाल करते थे। पोर्न कंटेंट के अलावा, व्यापक रूप से प्रसारित पफर जैकेट में पोप फ्रांसिस की एक तस्वीर लोग देख चुके हैं। इस तरह के फेक कंटेंट में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प पुलिस के साथ हाथापाई करते मिल जाएंगे. यही नहीं, फेसबुक के सीईओ मार्क जुकरबर्ग का भाषण देते हुए एक वीडियो भी शामिल है, जिसे देखकर वो ख़ुद हैरान हो गए थे.।

       बात यहीं तक सीमित नहीं है, महारानी एलिजाबेथ का नृत्य करते हुए वीडियो भी लोगों ने देखा, जो साम्राज्ञी एलिज़ाबेथ के वास्तविक जीवन में कभी नहीं घटित हुई।

डीपफेक दो अलग-अलग एआई डीप-लर्निंग एल्गोरिदम का उपयोग करके तैयार किए जाते हैं। उससे पहले की तैयारी में किसी विशिष्ट व्यक्ति की आवाज को ऑडियो डेटा फीड करके दोहराया जा सकता है। अक्सर, डीपफेक वीडियो उस व्यक्ति की आवाज की नकल करते हुए नए एआई-जनरेटेड ऑडियो के साथ बात करने वाले व्यक्ति के मौजूदा फुटेज को ओवरडब करके तैयार किए जाते हैं।

डीपफेक ज़्यादातर नापाक नीयत से जुड़े होते हैं, जिनमें गलत सूचना पैदा करना और राजनीतिक रूप से महत्वपूर्ण मामलों के बारे में भ्रम पैदा करना शामिल है।

      डीपफेक का दुरूपयोग अपने शिकार को अपमानित करने, डराने और परेशान करने के लिए किया जाता है। यह ब्लैकमेलिंग का एक ज़रिया भी है, जिससे नामचीन हस्तियों, राजनेताओं और कंपनियों के सीईओ तक को निशाने पर लिया जाता है। लेकिन छुटभैये आम नागरिकों को निशाना बनाने लगे हैं, यह भी देखने को मिल रहा है। सबसे बड़ी परेशानी पुलिस के रवैये को लेकर है, जो डीपफेक के शिकार लोगों के साथ संज़ीदगी से पेश नहीं आती।

       हालाँकि, डीपफेक के कुछ सकारात्मक उपयोग भी सामने आए हैं। उनमें से एक है सामाजिक मुद्दों के बारे में जागरूकता फैलाना। फुटबॉल के विश्व प्रसिद्ध खिलाड़ी डेविड बेकहम ने मलेरिया के बारे में जागरूकता बढ़ाने के लिए जिस अभियान में भाग लिया था, उसमें डिपफेंक का इस्तेमाल किया गया था। डेविड बेकहम के लिए नौ अलग-अलग भाषाओं में डीपफेक वीडियो बनाए गए जिसमें उन्हें बोलते हुए दिखाया गया था। इससे संदेश की पहुंच व्यापक हो गई।

      कला जगत को भी डीपफेक तकनीक का सकारात्मक उपयोग करते हुए पाया गया है। सेंट पीटर्सबर्ग, फ्लोरिडा स्थित संग्रहालयों में कलाकार साल्वाडोर डाली का एक आदमकद वीडियो दिखाया गया, जिसमें उनके तथाकथित इंटरव्यू को फ़र्क़ करना मुश्किल था, कि वो ओरिजिनल आवाज़ में नहीं है.

Exit mobile version