Post Viewership from Post Date to 31-Mar-2021 (5th day)
City Subscribers (FB+App) Website (Direct+Google) Email Instagram Total
2842 0 0 0 2842

***Scroll down to the bottom of the page for above post viewership metric definitions

डीप फेक (Deep Fake) क्या है और इससे क्या हानियां हैं?

मेरठ

 26-03-2021 10:56 AM
संचार एवं संचार यन्त्र
विभिन्न कारणों और मुद्दों को लेकर कृत्रिम बुद्धिमत्ता (Artificial Intelligence) चर्चा में बनी हुई है। कृत्रिम बुद्धिमत्ता कंप्यूटर विज्ञान की एक ऐसी शाखा है, जिसका काम बुद्धिमान मशीन बनाना है। पिछले कुछ दशकों में कृत्रिम बुद्धिमत्ता के विस्तार ने हमारे दैनिक जीवन के हर पहलू में बड़े बदलाव किये हैं। सरलतम शब्दों में कहें तो आर्टिफिशियल इंटेलिजेंस का अर्थ है एक मशीन में सोचने-समझने और निर्णय लेने की क्षमता का विकास करना। आर्टिफिशियल इंटेलिजेंस को कंप्यूटर साइंस का सबसे उन्नत रूप माना जाता है और इसके लिये एक ऐसा दिमाग बनाया जाता है, जिसमें कंप्यूटर सोच सके, उसका ऐसा दिमाग हो जो इंसानों की तरह सोच सके। वर्तमान में इसकी वजह से ही समाज के हर वर्ग तक मूलभूत सुविधाओं की पहुँच को सुनिश्चित करना भी संभव हो सका है। हालाँकि किसी भी अन्य क्षेत्र की तरह इस क्षेत्र के भी लाभ और नुकसान है। इस क्षेत्र में विकसित तकनीकों के अनियंत्रित प्रयोग के कारण इसके दुरुपयोग की संभावनाएँ भी बढ़ती जा रही हैं। दुष्प्रचार और अफवाहों की समस्या अब एक बड़ी चुनौती बन गई है। इसी कड़ी में 'डीप फेक' (Deep Fake) दुष्प्रचार और अफवाहों को तेज़ी से तथा एक वृहद् पैमाने पर फैलाने का नया विकल्प बनकर उभरा है, जैसे व्हाट्सएप (Whatsapp) और फेसबुक (Facebook) के माध्यम से लिखित फ़ेक न्यूज़ (fake news) का प्रसारण होता था वैसे ही फोटो (Photos) और वीडियो (Videos) के माध्यम में भी होने लगा है। आर्टिफ़िशल इंटेलिजेन्स के द्वारा बनाए हुए इन वीडियो और फोटो में बहुत हद तक झूट दिखाया जा सकता है।
डीप फेक, ‘डीप लर्निंग’ (Deep Learning) और ‘फेक’ (Fake) का सम्मिश्रण है। इसके तहत डीप लर्निंग नामक एक कृत्रिम बुद्धिमत्ता सॉफ्टवेयर (Software) का उपयोग करके एक मौजूदा मीडिया फाइल (Media file) (फोटो, वीडियो या ऑडियो)(Photo, Video or Audio) की नकली प्रतिकृति तैयार की जाती है। डीप फेक का मामला सबसे पहले वर्ष 2017 में सामने आया था, जब सोशल मीडिया साइट ‘रेडिट’ (Reddit) पर ‘डीप फेक’ नाम के एक अकाउंट (Account) पर इसके एक उपयोगकर्त्ता द्वारा कई मशहूर हस्तियों की आपत्तिजनक डीप फेक तस्वीरें पोस्ट की गईं। इस घटना के बाद से डीप फेक के कई अन्य मामले भी सामने आए हैं। यह डीप लर्निंग तकनीक एक नई विधि द्वारा संचालित कि जाता है जिसे जेनरेटिव एडवर्सरियल नेटवर्क (Generative Adversarial Network-GAN) कहा जाता है। डीपफेक से आप किसी भी वीडियो में किसी का भी चेहरा किसी से बदल कर सकते हैं। इसमें मीडिया फाइल में व्यापक हस्तक्षेप (जैसे-चेहरे बदलना, लिप सिंकिंग (lip synching) या अन्य शारीरिक गतिविधि) किया जा सकता है, और ये काम इतनी सटीकता से किया जाता है कि खुद कंप्यूटर भी उसको डिटेक्ट (Detect) नहीं कर पाता कि असली और नकली कौन सी है, और इससे जुड़े अधिकांश मामलों में लोगों की पूर्व अनुमति नहीं ली जाती, जो मनोवैज्ञानिक, सुरक्षा, राजनीतिक अस्थिरता और व्यावसायिक व्यवधान का खतरा उत्पन्न करता है। हाल ही मे आपने कई वायरल वीडियो देखे होंगे जिसमें राष्ट्रपति ओबामा (President Obama) ने राष्ट्रपति ट्रम्प (President Trump) का वर्णन करते हुये दुर्वचनों का उपयोग किया है, और मार्क जकरबर्ग (Mark Zuckerberg) ने स्वीकार किया कि फेसबुक (Facebook) का असली लक्ष्य अपने उपयोगकर्ताओं के डेटा (Data) के साथ छेड़छाड़ करना और उनका शोषण करना है। ये सभी मीडिया फाइलें डीप फेक का ही उदाहरण हैं। डीप फेक जैसी तकनीकों के दुरुपयोग से राजनीतिक और सामाजिक अस्थिरता के साथ राष्ट्रीय सुरक्षा के लिये बड़ा खतरा उत्पन्न हो सकता है इसके माध्यम से सार्वजनिक रूप से उपलब्ध सूचनाओं में हेर-फेर कर और गलत सूचनाओं के प्रसार से बड़े पैमाने पर अस्थिरता उत्पन्न की जा सकती है।
हालांकि इन वीडियो में असली नकली का पता लगाना मुश्किल है, लेकिन कुछ चीजें ऐसी है जिसके जरिए हम यह जान सकते हैं कि वीडियो फर्जी बना है या नहीं। 2018 में, अमेरिकी शोधकर्ताओं ने पाया कि डीपफेक चेहरे सामान्य रूप से पलकें नहीं झपकते। इस तरह की अधिकांश वीडियो में लोग अपनी आंखों को खुला रखते हैं, क्योंकि एल्गोरिदम (Algorithms) वास्तव में पलके झपकाने के बारे में नहीं सीखते हैं, और नकली चेहरों में रियल आंखों की तरह नजरें और रेटिना (Retina) नहीं होती है इसी कारण जो व्यक्ति रियल में पलकें झपकाता है उस तरह फर्जी वीडियो में व्यक्ति पलकें नहीं झपका सकता है। खराब-गुणवत्ता वाले डीपफेक को पहचना और भी आसान है। इन वीडियो में लिप सिंकिंग खराब होती है, कभी-कभी वीडियो में फेक ऑडियो देते समय उसकी ऑडियो और होठों की चाल में फर्क आने पर लिप सिंकिंग खराब हो जाती है जिससे व्यक्ति पहचान सकता है कि यह वीडियो फर्जी है। इनमें स्किन टोन (Skin Tone) पैची (Patchy) होती है, एक असली वीडियो में जिस तरह व्यक्ति के चेहरे का रंग होता है वैसे ही स्किन का रंग फर्जी वीडियो में नहीं हो सकता है क्योंकि डीप फेक टेक्नोलॉजी किसी व्यक्ति का हुबहू चेहरा तो बना सकती लेकिन उसके चेहरे का कलर टोन (Color tone) नहीं बना सकते। दुनिया की कई सरकारें, विश्वविद्यालय और तकनीकी फर्म डीपफेक का पता लगाने के लिए प्रयास कर रहे हैं, पिछले महीने, पहला डीपफेक डिटेक्शन चैलेंज (Deepfake Detection Challenge) माइक्रोसॉफ्ट (Microsoft), फेसबुक और अमेज़ॅन (Amazon) द्वारा समर्थित किया गया था। इस पर काबू पाने के लिये फेसबुक ने पिछले सप्ताह डीपफेक वीडियो पर प्रतिबंध लगा दिया था, जो दर्शकों को गुमराह करने की संभावना रखते थे।
जिस तरह इस तकनीक का विकास और विस्तार हो रहा है तो उसके साथ इसके अवैध और बेकार काम भी हो रहे हैं। आजकल डीप फेक तकनीक का उपयोग हर कोई कर रहा है कोई मनोरंजन के लिए कर रहा है तो कोई गलत कार्यों के लिए। ऑनलाइन (Online) डीपफेक सामग्री की मात्रा तेजी से बढ़ रही है। एक रिपोर्ट के अनुसार 2019 की शुरुआत में ऑनलाइन 7,964 डीपफेक वीडियो अपलोड थे, और सिर्फ नौ महीने बाद, यह आंकड़ा 14,678 हो गया। डीपटेर्स (Deeptrace) रिपोर्ट के अनुसार, सितंबर 2019 तक, 96% डीपफेक ऑनलाइन वीडियो अश्लील थे। विशेष रूप से पोर्नोग्राफ़ी (Pornography) से संबंधित थे। डीप फेक का दुरुपयोग बड़े पैमाने पर पोर्नोग्राफी के मामलों में देखा गया है जो भावनात्मक और व्यक्तिगत प्रतिष्ठा को क्षति पहुँचाने के साथ कुछ मामलों में व्यक्तिगत हिंसा को भी बढ़ावा देता है। पिछले कुछ समय से भारत में भी ऐसे मामलों में तीव्र वृद्धि देखी गई है। लगभग एक दर्जन वेबसाइटें (Website) हैं जो भारतीय महिलाओं की डीप फेक अश्लील चित्रों की मेजबानी करती हैं। भारत ने कथित रूप से पीडोफाइल (Paedophile) सामग्री की मेजबानी के लिए 2015 से 800 से अधिक वयस्क वेबसाइटों पर प्रतिबंध लगा दिया है, लेकिन ये डीपफेक वीडियो कुछ वेबसाइटों पर अभी भी हैं, और अब तक, इनसे निपटने के लिये कोई रणनीति नहीं बनाई गई है। इस तकनीक का उपयोग महिलाओं और राजनेताओं के अश्लील फोटो और पोर्न वीडियो बनाने में हो रहा है जो कि एक चिंता का विषय भी है। भारत में लोकप्रिय अभिनेत्रियां और राजनीतिक इसका शिकार हो रहे हैं। इस तरह के वीडियो दिसंबर 2018 में 7,964 से बढ़कर जून 2020 तक 49,081 हो गए थे। इनमें से लगभग 96% वीडियो अश्लील थे। हाल के महीनों में, टेलीग्राम (Telegram) जैसे मैसेजिंग ऐप (messaging apps) पर भी बॉट्स (bots) हुए हैं जो पूरी तरह से कपड़े पहने व्यक्ति की छवि को उनकी नग्न तस्वीर में बदल सकते हैं। सेंसिटी रिपोर्ट (Sensity report) के अनुसार, भारतीयों सहित लगभग 680000 लोगों को ऐसे बॉट का शिकार बन जाते है। अक्टूबर में, बॉम्बे हाई कोर्ट (Bombay High Court) ने सूचना और प्रसारण मंत्रालय (Ministry of Information and Broadcasting ) को इस पर ध्यान देने का निर्देश दिया था। डीप फेक लोकतांत्रिक संवाद को बदलने और महत्त्वपूर्ण संस्थानों के प्रति लोगों में अविश्वास फैलाने के साथ लोकतंत्र को कमज़ोर करने के प्रयासों को बढ़ावा दे सकता है। इसका प्रयोग चुनावों में जातिगत द्वेष, चुनाव परिणामों की अस्वीकार्यता या अन्य प्रकार की गलत सूचनाओं के लिये किया जा सकता है, जो एक लोकतांत्रिक व्यवस्था के लिये बड़ी चुनौती बन सकता है। हालांकि डीपफेक का उपयोग सकारात्मक तरीकों से किया जा सकता है, जैसे कि कला, अभिव्यक्ति, पहुंच और व्यवसाय के रूप में। परंतु इसका उपयोग जिस तरह से अवैध और बेकार के कामों में हो रहा है उससे इस तकनीक का कोई भविष्य नहीं दिखाई देता है।
कृत्रिम बुद्धिमत्ता का निर्माण हमारी सभ्यता के इतिहास की सबसे महत्त्वपूर्ण खोज में से है। लेकिन अगर इसके जोखिम से बचने का तरीका नहीं ढूँढा, तो इसके गंभीर परिणाम हो सकते हैं। फिलहाल हम नहीं जानते कि इसका स्वरूप आगे क्या होगा, परंतु इतना तो है कि डीप फेक और दुष्प्रचार जैसी चुनौतियों से निपटते हुए अभिव्यक्ति की स्वतंत्रता को सुरक्षित रखने हेतु सभी हितधारकों के साथ मिलकर एक बहुपक्षीय दृष्टिकोण को अपनाना बहुत ही आवश्यक है। विधायी नियमों, प्लेटफॉर्म नीतियों, प्रौद्योगिकी हस्तक्षेप और मीडिया साक्षरता के क्षेत्र में साझा प्रयास डीप फेक के खतरे को कम करने के लिये नैतिक एवं प्रभावी समाधान प्रदान कर सकता है।

संदर्भ:
https://bit.ly/3riZE8x
https://bit.ly/397pDt0
https://bit.ly/315ZgiN
https://bit.ly/313EoJ9
https://bit.ly/2QpxBY1

चित्र संदर्भ:
मुख्य तस्वीर में डीप फेक मार्क जकरबर्ग को दिखाया गया है। (बीसीसी)
दूसरी तस्वीर में डीप फेक ट्रम्प को दिखाया गया है। (PCMag)
तीसरी तस्वीर में डीप फेक ओबामा को दिखाया गया है। (वाणिज्यिक अपील)
***Definitions of the post viewership metrics on top of the page:
A. City Subscribers (FB + App) -This is the Total city-based unique subscribers from the Prarang Hindi FB page and the Prarang App who reached this specific post. Do note that any Prarang subscribers who visited this post from outside (Pin-Code range) the city OR did not login to their Facebook account during this time, are NOT included in this total.
B. Website (Google + Direct) -This is the Total viewership of readers who reached this post directly through their browsers and via Google search.
C. Total Viewership —This is the Sum of all Subscribers(FB+App), Website(Google+Direct), Email and Instagram who reached this Prarang post/page.
D. The Reach (Viewership) on the post is updated either on the 6th day from the day of posting or on the completion ( Day 31 or 32) of One Month from the day of posting. The numbers displayed are indicative of the cumulative count of each metric at the end of 5 DAYS or a FULL MONTH, from the day of Posting to respective hyper-local Prarang subscribers, in the city.

RECENT POST

  • जगन्नाथ रथ यात्रा विशेष: दुनिया के सबसे बड़े रथ उत्सव से जुडी शानदार किवदंतियाँ
    विचार I - धर्म (मिथक / अनुष्ठान)

     01-07-2022 10:22 AM


  • भारत के सबसे बड़े आदिवासी समूहों में से एक, गोंड जनजाति की संस्कृति व् परम्परा, उनके सरल व् गूढ़ रहस्य
    सिद्धान्त 2 व्यक्ति की पहचान

     30-06-2022 08:35 AM


  • सिंथेटिक कोशिकाओं में छिपी हैं, क्रांतिकारी संभावनाएं
    कोशिका के आधार पर

     29-06-2022 09:19 AM


  • मेरठ का 300 साल पुराना शानदार अबू का मकबरा आज बकरियों का तबेला बनकर रह गया है
    वास्तुकला 1 वाह्य भवन

     28-06-2022 08:15 AM


  • ब्लास्ट फिशिंग से होता न सिर्फ मछुआरे की जान को जोखिम, बल्कि जल जीवों को भी भारी नुकसान
    मछलियाँ व उभयचर

     27-06-2022 09:25 AM


  • एक पौराणिक जानवर के रूप में प्रसिद्ध थे जिराफ
    शारीरिक

     26-06-2022 10:08 AM


  • अन्य शिकारी जानवरों पर भारी पड़ रही हैं, बाघ केंद्रित संरक्षण नीतियां
    निवास स्थान

     25-06-2022 09:49 AM


  • हम में से कई लोगों को कड़वे व्यंजन पसंद आते हैं, जबकि उनकी कड़वाहट कई लोगों के लिए सहन नहीं होती
    स्वाद- खाद्य का इतिहास

     24-06-2022 09:49 AM


  • भारत में पश्चिमी शास्त्रीय संगीत धीरे-धीरे से ही सही, लेकिन लोकप्रिय हो रहा है
    ध्वनि 1- स्पन्दन से ध्वनि

     23-06-2022 09:30 AM


  • योग शरीर को लचीला ही नहीं बल्कि ताकतवर भी बनाता है
    य़ातायात और व्यायाम व व्यायामशाला

     22-06-2022 10:23 AM






  • © - 2017 All content on this website, such as text, graphics, logos, button icons, software, images and its selection, arrangement, presentation & overall design, is the property of Indoeuropeans India Pvt. Ltd. and protected by international copyright laws.

    login_user_id