अग्नि आलोक
script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-1446391598414083" crossorigin="anonymous">

*आखिर डीपफेक से क्यों डरे मोदीश्री*

Share

      पुष्पा गुप्ता

     शिक्षा और चिकित्सा दो अतिरिक्त क्षेत्र हैं जो डीपफेक तकनीक से लाभान्वित हो सकते हैं। अपनी क्लास में शिक्षक आकर्षक पाठ प्रस्तुत करने के लिए दुर्लभ भाषणों का डीपफेक के ज़रिये उपयोग कर सकते हैं। स्वास्थ्य के शोबे को भी देखा जाए तो डीपफेक तकनीक का उपयोग करके एमआरआई स्कैन पर ट्यूमर को पहचानने की एक्यूरेसी को बढ़ाया जा सकता है।

      इससे ट्यूमर का इलाज करना आसान हो जाता है। डीपफेक वास्तविक रोगियों के डेटा के बजाय संश्लेषित डेटा का उपयोग करके अनुसंधान करने की अनुमति देता है, जिससे शोधकर्ता गोपनीयता संबंधी चिंताओं से बच सकते हैं।

  लेकिन साहब ज़ी तो साहब ज़ी हैं. चौकीदार साहब ज़ी को इससे डर लगता है.

       गौरतलब है की डीपफेक तकनीक का 95 प्रतिशत ‘सदुपयोग‘ पोर्न इंडस्ट्री में हो रहा है। किसकी इज़्जत कब उतर जाए, कहना मुश्किल है। लेकिन उसका राजनीतिक दुरूपयोग सत्ता के गलियारों में चिंता का सबब बन चुका है। भारत की तरह अमेरिका में भी आम चुनाव 2024 में है। जो बाइडेन डीपफेक से उतना ही चिंतित हैं, जितना कि मोदी। सवाल यह भी है कि डीपफेक का दुरूपयोग क्या राष्ट्रीय सुरक्षा का विषय नहीं है? डीपफेक एक ऐसा दानवी हथियार है, जो पड़ोसी देशों तक से संबंध बिगाड़ सकता है। 

       तो क्या 2024 चुनाव के समय डीपफेक के दुरूपयोग की चिंता प्रधानमंत्री मोदी को सताने लगी?

 पत्रकारों से दीवाली मिलन समारोह के दौरान अपनी चिंता साझा करते हुए पीएम मोदी ने कहा कि आप मुझे गरबा गीत गाते देख सकते हैं, जबकि मैने कभी ऐसा किया नहीं। डीपफेक वालों ने मुझे अन्य कई रूपों में प्रस्तुत कर रखा है। मोदी ने मोदी ने एक बड़ी चिंता को साझा किया है। अब इसमें पत्रकार केवल इतना ही कर सकते हैं कि ख़बरें प्रस्तुत करते समय डीपफेक का घ्यान रखें। हमारे देश के क़ानून ने केवल इतना इंतज़ाम कर लिया है कि जो लोग ऐसा करते पकड़े गये, उन्हें तीन साल की जेल और एक लाख रूपये तक जुर्माना ठोक सकता है। लेकिन क्या इतना उपाय काफी है?

       आर्टिफिशियल इंटेलीजेंस की मदद से कहीं का माल कहीं चिपका देना ‘एल्गोरिदम‘ कहा जाने लगा है। अमृत काल में इस कलाकारी को आर्टिफिशियल इंटेलीजेंस ने राकेट जैसी रफ़्तार दे दी है। 2014 में जब इसे इस्तेमाल में लाया गया, तब और आज के एल्गोरिदम में ज़मीन आसमान का अंतर आया है।

       प्रारंभ में, डीपफेक का उपयोग मुख्य रूप से हानिरहित और मनोरंजक उद्देश्यों के लिए किया जाता था, जैसे सेलिब्रिटी चेहरे की अदला-बदली करना, या फ़िर फिल्मों में चेहरे डालना। अब जैसे-जैसे तकनीक उन्नत हुई, वैसे-वैसे इसके दुरुपयोग की संभावना भी बढ़ती गई है।

    डीपफेक एल्गोरिदम अधिक परिष्कृत हो गए, जिससे अधिक साइबर कंटेंट में हेराफेरी करना सहज हो गया। 

‘डीपफेक‘ शब्द ‘डीप लर्निंग‘( सीखने की गहन शैली) और ‘फेक‘ (फर्जीवाडे) के संयोजन से बना है। यह सब गहन शिक्षण तकनीकों वाली प्रौद्योगिकी विशेष रूप से जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) पर निर्भर करती है, जिसे पहली बार 2014 में अमेरिकी कंप्यूटर साइंटिस्ट इयान गुडफेलो और उनकी टीम द्वारा पेश किया गया था। देखने में यह तकनीक तो क्रांतिकारी लगी, मगर इससे सकारात्मक कम और दुर्भावनापूर्ण उपयोग की संभावना ज़्यादा बढ़ गईं।

      बाद के दिनों में अमेरिका-यूरोप में राजनीतिक दुष्प्रचार फैलाने के काम यह ज़्यादा आने लगा। जबतक आप सफाई दें कि यह फेक है, उससे पहले करोड़ों लोग सोशल मीडिया पर साझा कर चुके होते हैं। पीएम मोदी स्वयं इस तकनीकी दानव से प्रकंपित हो चुके हैं, यह बात दीवाली मिलन समारोह में उनके दर्शनार्थी पत्रकारों ने भी महसूस किया था। 

      दिक्क़त क्या है कि हम देर से जगते हैं। सन दो हज़ार की शुरूआत में काल्पनिक महाकाव्य पर आधारित तीन एक्शन फिल्में बनी थीं। द लॉर्ड ऑफ द रिंग्स (2001), द फेलोशिप ऑफ द रिंग (2002), और द रिटर्न ऑफ द किंग (2003)। तीन खंडों में विभाजित यह ट्रियोलॉजी जे.आर.आर. टोलकिन द्वारा लिखित ‘द लॉर्ड ऑफ द रिंग्स‘ किताब पर आधारित थी, जिसने आर्टिफिशियल इंटेलीजेंस पर काम कर रहे लोगों को यह आइडिया दिया था कि आभासी दुनिया के ज़रिये फ़िल्म मेकिंग में बवाल काटा जा सकता है।

    2014 आते-आते ‘डीपफेक‘ जब अवतरित हुआ, हॉलीवुड की फ़िल्म मेकिंग में क्रांति आ गई। लेकिन डीपफेक ने जब अमेरिकी राजनीति में पिछले दरवाज़े से प्रवेश किया, तो सियायत हिलने लगी।

     एआई एल्गोरिदम द्वारा बनाए गए मनगढ़ंत वीडियो आज की तारीख में अमेरिकी राजनीति के सच को कल्पना के हथियार से धुंधला कर रहे हैं। 

भारत की तरह अमेरिका में भी आम चुनाव 2024 में है, जो बाइडेन प्रशासन डीपफेक से उतना ही चिंतित है, जितना कि मोदी। पर सवाल यह भी है कि डीपफेक का दुरूपयोग क्या राष्ट्रीय सुरक्षा का विषय नहीं है? डीपफेक एक ऐसा दानवी हथियार है, जो पड़ोसी देशों तक से संबंध बिगाड़ सकता है। इसके हवाले से पूछा जा सकता है कि हमारे राष्ट्रीय सुरक्षा सलाहकार अजीत डोभाल किस तरह की रणनीति तैयार कर रहे हैं?

      डीपफेक ने सिंथेटिक मीडिया के स्वरूप को तेज़ी से बदल दिया, जो कई वर्षों से अस्तित्व में है। पिछले एक साल में इसे मिडजर्नी जैसे कई नए जेनरेटिव एआई टूल द्वारा टर्बोचार्ज किया गया है, जो डीपफेक को और भी सस्ता और आसान बनाता है। यह सटीक डेटा जैसा दिखता है. इस सफलता ने डीपफेक तकनीक को और अधिक डेवलप करने, साथ में उसे सर्वसाधारण को सुलभ करने का रास्ता दिखा चुका है। 

      सेंटर फॉर ह्यूमन टेक्नोलॉजी के सह-संस्थापक, एजा रस्किन ने खुद इस महीने की शुरुआत में अपने सोशल मीडिया प्लेटफॉर्म, ‘ट्रुथ सोशल‘ पर सीएनएन एंकर एंडरसन कूपर के सामने एक छेड़छाड़ किया हुआ वीडियो साझा किया था। उस वीडियो फुटेज में लाइव प्रेसिडेंशियल बहस में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प अपने प्रतिद्वंद्वी जो बाइडेन से भिड़ रहे थे। यों, डीपफेक से बने उस वीडियो में दोनों के होठों की हरकत़ मेल नहीं खा रहे थे।

     मकसद यह बताना था कि 2024 के अमेरिकी चुनाव में डीपफेक रोका नहीं गया, तो नकली वीडियो रीयलपॉलिटिक की बैंड बजा देगा। 

यों, समाज पर डीपफेक तकनीक का नाकारात्मक प्रभाव बहुआयामी है। इससे व्यक्तिगत और व्यावसायिक प्रतिष्ठा के साथ-साथ श्रव्य-दृश्य साक्ष्यों पर हमारे भरोसे का भूस्खलन करता है। डीपफेक में दुष्प्रचार अभियानों को तेज़ करने की क्षमता होती है, क्योंकि उनका उपयोग फर्जी समाचार या प्रचार के टूल के तौर पर किया जा सकता है। डीपफेक तकनीक का उदय आज की तारीख़ में सुरक्षा के लिए भी भयावह चुनौती बन चुका है। 

      उदाहरण के लिए, डीपफेक से बनी सामग्री प्रौद्योगिकी चेहरे की पहचान प्रणाली को धोखा दे सकती है। सुरक्षा उपायों को दरकिनार कर सकती है, और संवेदनशील सूचनाओं से समझौता कर सकती है। डीपफेक व्यक्तियों का प्रतिरूपण भी कर सकते हैं। पहचान की पिछले दरवाज़े से चोरी या सोशल इंजीनियरिंग हमलों के अवसर पैदा कर सकते हैं। यह व्यक्तियों, सरकार को प्रभावित करने वाले संगठनों, और यहां तक कि राष्ट्रीय सुरक्षा के लिए भी बड़ा ख़तरा पैदा करता है।

       डिपफेक एक ऐसा सिंथेटिक मीडिया है, जिसमें चित्र, वीडियो और ऑडियो शामिल हैं। जो आर्टिफिशियल इंटेलीजेंस द्वारा सृजित होते हैं, और जो ऐसे कंटेंट को चित्रित करते हैं, जो वास्तविकता में मौजूद है ही नहीं है। ऐसी घटनाएं, जो कभी घटित नहीं हुई हैं, उसे सच साबित करने की ताक़त डीपफेक में है।

 डीपफेक द्वारा उत्पन्न चुनौतियों से निपटने के लिए बहुआयामी तैयारियों की आवश्यकता है। डीपफेक की पहचान के लिए उससे भी अधिक परिष्कृत टूल विकसित करना साइबर संसार के लिए एक बड़ी चुनौती है, जो कम से कम भारत में विकसित नहीं हो पाया है। उसका दूसरा पक्ष क़ानूनी भी है। एक लाख का ज़ुर्माना और तीन साल की जेल जैसी धाराओं से फज़ीवाड़ा करने वाले डर जाएंगे, इसमें मुझे शक़ ही है। 

      डीपफेक के शिकार लोग आत्म हत्या भी कर सकते हैं, शायद काऩून बनाने वालों को इसकी संज़ीदगी का अंदाज़ा नहीं होगा। जो कुछ क़ानूनी उपाय मोदी काल में दिये गये हैं, वो नाकाफ़ी और कागज़ी शेर जैसे ही हैं। डीपफेक तकनीक का 95 प्रतिशत दुरूपयोग पोर्न इंडस्ट्री में हो रहा है। जो लोग मशहूर हस्तियों की नंग-धड़ंग क्लिप डीपफेक के ज़रिये बना रहे हैं, उन्हें पांच डॉलर से लेकर 50 डॉलर तक का पेमेंट वीज़ा, मास्टर कार्ड या क्रिप्टोकरेंसी के माध्यम से दिया जा रहा है।

      लेकिन यह सब इतना डरावना है कि किनकी बहू-बेटियों की इज्ज़त कब नीलाम हो जाए, कहना मुश्किल है। बाद में उनके परिजन और जांच एजेंसियाँ  सफाई देती रहें कि यह फेक है। 

      2017 में इस्तेमाल किया जाने लगा जब एक रेडिट मॉडरेटर ने ऐसे वीडियो पोस्ट करना शुरू किया, जो मौजूदा अश्लील वीडियो में मशहूर हस्तियों हूबहू दिखाने के लिए फेस-स्वैपिंग तकनीक का इस्तेमाल करते थे। पोर्न कंटेंट के अलावा, व्यापक रूप से प्रसारित पफर जैकेट में पोप फ्रांसिस की एक तस्वीर लोग देख चुके हैं। इस तरह के फेक कंटेंट में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प पुलिस के साथ हाथापाई करते मिल जाएंगे. यही नहीं, फेसबुक के सीईओ मार्क जुकरबर्ग का भाषण देते हुए एक वीडियो भी शामिल है, जिसे देखकर वो ख़ुद हैरान हो गए थे.।

       बात यहीं तक सीमित नहीं है, महारानी एलिजाबेथ का नृत्य करते हुए वीडियो भी लोगों ने देखा, जो साम्राज्ञी एलिज़ाबेथ के वास्तविक जीवन में कभी नहीं घटित हुई।

डीपफेक दो अलग-अलग एआई डीप-लर्निंग एल्गोरिदम का उपयोग करके तैयार किए जाते हैं। उससे पहले की तैयारी में किसी विशिष्ट व्यक्ति की आवाज को ऑडियो डेटा फीड करके दोहराया जा सकता है। अक्सर, डीपफेक वीडियो उस व्यक्ति की आवाज की नकल करते हुए नए एआई-जनरेटेड ऑडियो के साथ बात करने वाले व्यक्ति के मौजूदा फुटेज को ओवरडब करके तैयार किए जाते हैं।

डीपफेक ज़्यादातर नापाक नीयत से जुड़े होते हैं, जिनमें गलत सूचना पैदा करना और राजनीतिक रूप से महत्वपूर्ण मामलों के बारे में भ्रम पैदा करना शामिल है।

      डीपफेक का दुरूपयोग अपने शिकार को अपमानित करने, डराने और परेशान करने के लिए किया जाता है। यह ब्लैकमेलिंग का एक ज़रिया भी है, जिससे नामचीन हस्तियों, राजनेताओं और कंपनियों के सीईओ तक को निशाने पर लिया जाता है। लेकिन छुटभैये आम नागरिकों को निशाना बनाने लगे हैं, यह भी देखने को मिल रहा है। सबसे बड़ी परेशानी पुलिस के रवैये को लेकर है, जो डीपफेक के शिकार लोगों के साथ संज़ीदगी से पेश नहीं आती।

       हालाँकि, डीपफेक के कुछ सकारात्मक उपयोग भी सामने आए हैं। उनमें से एक है सामाजिक मुद्दों के बारे में जागरूकता फैलाना। फुटबॉल के विश्व प्रसिद्ध खिलाड़ी डेविड बेकहम ने मलेरिया के बारे में जागरूकता बढ़ाने के लिए जिस अभियान में भाग लिया था, उसमें डिपफेंक का इस्तेमाल किया गया था। डेविड बेकहम के लिए नौ अलग-अलग भाषाओं में डीपफेक वीडियो बनाए गए जिसमें उन्हें बोलते हुए दिखाया गया था। इससे संदेश की पहुंच व्यापक हो गई।

      कला जगत को भी डीपफेक तकनीक का सकारात्मक उपयोग करते हुए पाया गया है। सेंट पीटर्सबर्ग, फ्लोरिडा स्थित संग्रहालयों में कलाकार साल्वाडोर डाली का एक आदमकद वीडियो दिखाया गया, जिसमें उनके तथाकथित इंटरव्यू को फ़र्क़ करना मुश्किल था, कि वो ओरिजिनल आवाज़ में नहीं है.

script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-1446391598414083" crossorigin="anonymous">

Follow us

Don't be shy, get in touch. We love meeting interesting people and making new friends.

प्रमुख खबरें

चर्चित खबरें