DeepFake क्या है और कैसे काम करता है?

वास्तविकता के अनुकरण में कंप्यूटर तेजी से बेहतर हो रहे हैं। उदाहरण के लिए, आधुनिक सिनेमा, व्यावहारिक स्थानों और प्रॉप्स के स्थान पर कंप्यूटर-जनरेट किए गए सेट, दृश्यों और पात्रों पर बहुत अधिक निर्भर करता है, जो कभी सामान्य थे, और अधिकांश समय ये दृश्य वास्तविकता से काफी हद तक अप्रभेद्य होते हैं।
हाल ही में, डीपफेक तकनीक सुर्खियों में रही है। कंप्यूटर इमेजरी में नवीनतम पुनरावृत्ति, डीपफेक तब बनाई जाती है जब कृत्रिम बुद्धिमत्ता (एआई) को रिकॉर्ड किए गए वीडियो में एक व्यक्ति की समानता को दूसरे के साथ बदलने के लिए प्रोग्राम किया जाता है।
DeepFake क्या है?
Deepfake एक ऐसी Technology है जिसमे आर्टिफिशियल इंटेलिजेंस की मदद से किसी भी vedio या photo की सामग्री को दूसरे vedio या photo से मर्ज करता है। Deepfake का उपयोग वीडियो में चेहरे को स्वैप करने और यथार्थवादी-दिखने वाले नकली मीडिया बनाने के लिए डिजिटल सामग्री के लिए किया जाता है।
Deepfake बनाने के लिए कई तरीके हैं, लेकिन सबसे आम उन गहन न्यूरल नेटवर्क के उपयोग पर निर्भर करता है जिनमें ऑटोएन्कोडर्स शामिल होते हैं जो फेस-स्वैपिंग तकनीक को रोजगार देते हैं। आपको पहले डीपफेक के आधार के रूप में उपयोग करने के लिए एक लक्ष्य वीडियो की आवश्यकता है और फिर उस व्यक्ति की वीडियो क्लिप का एक संग्रह जिसे आप लक्ष्य में सम्मिलित करना चाहते हैं।
वीडियो पूरी तरह से असंबंधित हो सकते हैं; उदाहरण के लिए, लक्ष्य हॉलीवुड की फिल्म का एक क्लिप हो सकता है, उदाहरण के लिए, और जिस व्यक्ति को आप फिल्म में सम्मिलित करना चाहते हैं, उसके वीडियो YouTube से डाउनलोड किए गए यादृच्छिक क्लिप हो सकते हैं।

Autoencoder एक गहन सीखने वाला AI प्रोग्राम है जिसे वीडियो क्लिप का अध्ययन करने के लिए सौंपा गया है ताकि यह समझने के लिए कि व्यक्ति विभिन्न कोणों और पर्यावरणीय परिस्थितियों से कैसा दिखता है, और फिर उस व्यक्ति को सामान्य सुविधाओं का पता लगाकर उस व्यक्ति को लक्ष्य वीडियो में मैप कर रहा है।
DeepFake कैसे काम करता है?
एक और प्रकार की मशीन लर्निंग को मिक्स में जोड़ा जाता है, जिसे जनरेटिव एडवरसियर नेटवर्क्स (जीएएन) के रूप में जाना जाता है, जो कई राउंड के भीतर डीपफेक में किसी भी खामियों का पता लगाता है और सुधारता है, जिससे उन्हें डीकोड करना डिटेक्टरों के लिए कठिन होता है।
जीएएनएस का उपयोग डीपफेक के निर्माण के लिए एक लोकप्रिय विधि के रूप में भी किया जाता है, बड़ी मात्रा में डेटा के अध्ययन पर भरोसा करते हुए “नए” कैसे विकसित होते हैं जो वास्तविक उदाहरणों की नकल करते हैं, दर्द भरे सटीक परिणामों के साथ। कई ऐप और सॉफ्टवेयर्स शुरुआती लोगों के लिए भी डीपफेक जेनरेट करना आसान बनाते हैं, जैसे कि चीनी ऐप Zao, डीपफेस लैब, फेसऐप (जो बिल्ट-इन AI तकनीकों के साथ एक फोटो एडिटिंग ऐप है), फेस स्वैप, और जब से हटाए गए दीपक को एक ख़ासकर खतरनाक ऐप जो महिलाओं की नकली नग्न छवियों को उत्पन्न करता है।
सॉफ्टवेयर डेवलपमेंट ओपन सोर्स कम्युनिटी गिथब पर भारी मात्रा में डीपफेक सॉफ्टवेयर्स पाए जा सकते हैं। इनमें से कुछ ऐप्स का इस्तेमाल शुद्ध मनोरंजन उद्देश्यों के लिए किया जाता है – यही वजह है कि डीपफेक क्रिएशन की घोषणा नहीं की गई है – जबकि अन्य में दुर्भावनापूर्ण रूप से उपयोग किए जाने की संभावना अधिक है।
कई विशेषज्ञों का मानना है कि, भविष्य में, डीपफेक अधिक परिष्कृत हो जाएगा क्योंकि प्रौद्योगिकी आगे विकसित होती है और जनता के लिए अधिक गंभीर खतरों को पेश कर सकती है, चुनाव हस्तक्षेप, राजनीतिक तनाव और अतिरिक्त आपराधिक गतिविधि से संबंधित है।
डीपफेक का उपयोग कैसे किया जाता है?
जबकि विश्वसनीय और यथार्थवादी दिखने वाले सिंथेटिक वीडियो बनाने के लिए स्वचालित रूप से स्वैप करने की क्षमता में कुछ दिलचस्प सौम्य एप्लिकेशन (जैसे सिनेमा और गेमिंग में) हैं, यह स्पष्ट रूप से कुछ परेशान अनुप्रयोगों के साथ एक खतरनाक तकनीक है। वास्तव में डीपफेक के लिए पहली वास्तविक दुनिया के अनुप्रयोगों में से एक, सिंथेटिक पोर्नोग्राफी बनाना था।
2017 में, “डीपफेकस ” नाम के एक रेडिट यूजर ने पोर्न के लिए एक मंच तैयार किया, जिसमें चेहरे की अदला-बदली करने वाले कलाकार थे। उस समय से, पोर्न (विशेष रूप से रिवेंज पोर्न) ने बार-बार समाचार बनाया, जिससे मशहूर हस्तियों और प्रमुख हस्तियों की प्रतिष्ठा को नुकसान पहुंचा। डीप्रेस रिपोर्ट के अनुसार, पोर्नोग्राफी ने 2019 में 96% डीपफेक वीडियो ऑनलाइन बनाए।
राजनीति में डीपफेक वीडियो का भी इस्तेमाल किया गया है। उदाहरण के लिए, 2018 में, बेल्जियम की एक राजनीतिक पार्टी ने डोनाल्ड ट्रम्प का एक वीडियो जारी किया, जिसमें उन्होंने बेल्जियम को पेरिस रेल मंत्रालय के समझौते से हटने के लिए भाषण दिया। ट्रम्प ने वह भाषण कभी नहीं दिया, हालांकि – यह एक गहरी बात थी। यह भ्रामक वीडियो बनाने के लिए एक डीपफेक का पहला प्रयोग नहीं था, और तकनीक के जानकार राजनीतिक विशेषज्ञ नकली समाचारों की एक भविष्य की लहर के लिए लटके हुए हैं, जो वास्तविक रूप से यथार्थवादी डीपफेक की सुविधा देते हैं।
बेशक, सभी डीपफेक वीडियो लोकतंत्र के लिए एक संभावित खतरा नहीं है। हास्य और व्यंग्य के लिए इस्तेमाल होने वाले डीपफेक की कोई कमी नहीं है, जैसे कि चिप्स जैसे सवाल जो निकोलस केज की तरह दिखते हैं अगर वह “रेडर्स ऑफ द लॉस्ट आर्क” में दिखाई देता है?
क्या Deepfake केवल वीडियो में होता हैं?
डीपफेक सिर्फ वीडियो तक सीमित नहीं हैं। डीपफेक ऑडियो एक तेजी से बढ़ने वाला क्षेत्र है जिसमें अनुप्रयोगों की एक बड़ी संख्या है।
यथार्थवादी ऑडियो डीपफेक अब उस व्यक्ति के ऑडियो के कुछ घंटों (या कुछ मामलों में, मिनटों) के साथ गहरे शिक्षण एल्गोरिदम का उपयोग करके बनाया जा सकता है, जिसकी आवाज का क्लोन बनाया जा रहा है, और एक बार एक आवाज का एक मॉडल बनाया जाता है, उस व्यक्ति को बनाया जा सकता है कुछ भी कहने के लिए, जैसे कि पिछले साल एक सीईओ के फर्जी ऑडियो का इस्तेमाल धोखाधड़ी करने के लिए किया गया था।
डीपफेक ऑडियो में आवाज बदलने के साथ-साथ कंप्यूटर गेम डिजाइन के रूप में चिकित्सा अनुप्रयोग हैं – अब प्रोग्रामर इन-गेमर वर्णों को वास्तविक समय में कुछ भी कहने के लिए अनुमति दे सकते हैं बजाय सीमित स्क्रिप्ट के जो खेल के पहले रिकॉर्ड किए गए थे। प्रकाशित किया गया।
Deepfake का पता कैसे लगाएं
जैसे-जैसे डीपफेक अधिक सामान्य होते जाते हैं, सामूहिक रूप से सोसाइटी को सबसे अधिक संभावना होगी कि वे उसी तरह से डीपफेक वीडियो को अपना सकें, जिस तरह से ऑनलाइन उपयोगकर्ता अब अन्य प्रकार की फर्जी खबरों का पता लगाने के लिए तैयार हैं।
अक्सर, जैसा कि साइबर सुरक्षा के मामले में होता है, इसे और अधिक गहन तकनीक का पता लगाने और इसे फैलने से रोकने के लिए उभरना चाहिए, जो एक दुष्चक्र को चालू कर सकता है और संभवतः अधिक नुकसान पहुंचा सकता है। कुछ ऐसे संकेतक हैं जो डीपफेक को दूर करते हैं:
- वर्तमान डीपफेक में वास्तविक रूप से एनिमेटेड चेहरों की परेशानी होती है, और इसका परिणाम वह वीडियो है जिसमें विषय कभी भी झपकाता नहीं है, या बहुत बार या अप्राकृतिक रूप से झपकाता है। हालांकि, अल्बानी विश्वविद्यालय के शोधकर्ताओं ने पलक झपकने वाली असामान्यता का पता लगाने के लिए एक अध्ययन प्रकाशित किया था, नए डीपफेक जारी किए गए थे कि अब उन्हें कोई समस्या नहीं थी।
- त्वचा या बालों के साथ समस्याओं के लिए देखो, या चेहरे कि वे वातावरण में की तुलना में धुंधला हो रहे हैं जिसमें वे तैनात हैं। ध्यान अस्वाभाविक रूप से नरम लग सकता है।
- क्या प्रकाश अप्राकृतिक दिखता है? अक्सर, डीपफेक एल्गोरिदम उन क्लिप की रोशनी को बनाए रखेगा जो नकली वीडियो के लिए मॉडल के रूप में उपयोग किए गए थे, जो लक्ष्य वीडियो में प्रकाश व्यवस्था के लिए एक खराब मैच है।
- ऑडियो व्यक्ति से मेल खाते हुए नहीं दिखाई दे सकता है, खासकर अगर वीडियो फेक था, लेकिन मूल ऑडियो उतना सावधानी से हेरफेर नहीं किया गया था।