डीपफेक क्या है, ये क्या जोखिम पैदा करते हैं, इनको पहचाने कैसे ?
Updated: Apr 12
डीपफेक एक प्रकार की कृत्रिम बुद्धिमत्ता (एआई) तकनीक है जिसका उपयोग मौजूदा फुटेज को बदलकर या पूरी तरह से मनगढ़ंत सामग्री तैयार करके हाइपर-यथार्थवादी नकली वीडियो या चित्र बनाने के लिए किया जाता है। "डीपफेक" शब्द "डीप लर्निंग" का एक संयोजन है, जो एआई के लिए तंत्रिका नेटवर्क के उपयोग को संदर्भित करता है, और "नकली", सामग्री की भ्रामक प्रकृति को दर्शाता है।डीपफ़ेक ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है। जैसे हम किसी भी चीज़ की फोटो-कॉपी कर लेते हैं, वैसे ही ये टेक्नोलॉजी चलते-फिरते और बोलते लोगों की हूबहू कॉपी कर सकती है। मतलब हम स्क्रीन पर एक किसी भी इंसान, जीव को चलते-फिरते, बोलते देख सकते हैं, जो नकली हो या जिसकी कॉपी बनाई गयी हो। इस टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं। इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है और वो भी इतनी सफ़ाई और बारीकी से कि स्रोत चेहरे के सभी हाव-भाव तक फ़र्ज़ी चेहरे पर दिख सकते हैं।डीपफेक बनाने के लिए इस्तेमाल की जाने वाली मुख्य मशीन सीखने की विधियाँ डीप लर्निंग पर आधारित होती हैं और इसमें प्रशिक्षण संबंधी न्यूरल नेटवर्क आर्किटेक्चर शामिल होते हैं, जैसे कि ऑटोएन्कोडर्स या जेनरेटर एडवरसियर नेटवर्क I
डीपफेक की मूल अवधारणा-
डेटा संग्रहण: डीपफेक निर्माणकर्ता व्यक्ति को उस व्यक्ति की व्यक्तिगतता को अनुकरण करने के लिए जो वह बनाना चाहते हैं, उसके वीडियो या चित्रों की बड़ी मात्रा में डेटा एकत्र करते हैं। यह डेटा सामाजिक मीडिया पोस्ट, सार्वजनिक फुटेज या किसी अन्य सार्वजनिक उपलब्ध सामग्री में शामिल हो सकती है।
गहरे शिक्षण: वे गहरे अध्ययन एल्गोरिदम का उपयोग करते हैं, खासकर जेनरेटिव एडवर्सेरियल नेटवर्क्स (GANs) या डीप न्यूरल नेटवर्क्स को विश्लेषित और सीखने के लिए। GANs में दो न्यूरल नेटवर्क्स होते हैं, एक जनरेटर और एक डिस्क्रिमिनेटर, जो मिलकर वास्तविकता जैसे दिखने वाली सामग्री उत्पन्न करने के लिए काम करते हैं।
चेहरे का परिवर्तन: न्यूरल नेटवर्क उसके सिखे हुए चेहरे की विशेषताओं, भावनाओं और ध्वनि को मूल स्रोत में समाहित करके, उपकरण वाले व्यक्ति को मूल विषय पर समाहित करते हैं। इससे एक वीडियो बनता है जिसमें उपकरण वाला व्यक्ति के मुखबिम्ब, अभिव्यक्तियों और आवाज को मूल व्यक्ति के मुखबिम्ब पर अच्छा काम करते हैं। इससे वातचीत विचार किया जाता है कि वातचीत व्यक्ति कुछ करने की जरूरत है जो उन्होंने कभी नहीं की थी।
जैसा कि फ़ेक न्यूज़ के साथ देखा गया है की फ़ेक न्यूज़ को पकड़ा जा सकता है इसका मतलब यह नहीं है कि इसे क्लिक नहीं किया जाएगा और ऑनलाइन पढ़ा और साझा नहीं किया जा सकता है। क्योंकि वो चीज़ें जो इंटरनेट को चलाती हैं, वो हैं बिना किसी रुकावट के जानकारी का साझाकरण और लोगों की अटेंशन से पैसा बनाना। इसका मतलब है की डीपफ़ेक के इस्तेमाल के लिए हमेशा एक दर्शक वर्ग मौजूद रहेगा। लेकिन किस तरह इस टेक्नोलॉजी का प्रभाव रोका जा सकता है, यह निश्चित ही एक बड़ा प्रश्न है। और आख़िर, हम कितना ही डीपफ़ेक को रोकने के लिए तकनीकी समाधान खोज लें, चाहे वे कितने भी अच्छे हों, वो डीपफ़ेक विडियो/फोटो को फैलने से नहीं रोक सकते। साथ ही कानूनी उपाय, चाहे वे कितने भी प्रभावी हों, आम तौर पर डीपफ़ेक के फैलने के बाद ही लागू हो सकते हैं।
डीपफेक की पहचान कठिन हो सकती है, क्योंकि वे बेहद प्रतिबद्ध दिखाने के लिए डिज़ाइन किए गए होते हैं। लेकिन उन्हें पहचानने के लिए कई तरीके और उपकरण हैं:
इससे पहले कि हम नकली फ़ोटो और वीडियो की पहचान करने की बारीकियों पर गौर करें, आइए इस बात पर ज़ोर दें कि यह महत्वपूर्ण क्यों है। ऐसी दुनिया में जहां गलत सूचना और गलत सूचना जंगल की आग की तरह फैलती है, नकली दृश्य को पहचानने की क्षमता किसी भी डिजिटल उपभोक्ता के लिए एक आवश्यक कौशल है। यह आपको झांसे, घोटालों और यहां तक कि साइबर खतरों में फंसने से बचा सकता है।
दृश्यिक अर्थगतियाँ: डीपफेक अक्सर दृश्यिक अर्थगतियाँ छोड़ जाते हैं, जैसे अप्राकृतिक त्वचा रंग, धुंधला या विकृत किनारे, और असंगत प्रकाश, जो उत्पन्न सामग्री में अनियमितताओं का संकेत देते हैं। इन असमान्यताओं का ध्यान दें, क्योंकि ये मानिक विवरणों की पहचान के लिए संकेत हो सकते हैं।
चेहरे की असंगतता: व्यक्ति की भावनाओं, आंखों की चालन, और होंठ सिंक की असंगतताओं के लिए देखें। डीपफेक इन विवरणों को पूरी तरह से मेल नहीं खा सकते, जिससे सूक्ष्म विसंगतियाँ हो सकती हैं।
मेटाडेटा की जांच करें :मेटाडेटा में किसी छवि के बारे में बहुमूल्य जानकारी होती है, जैसे कि इसे लेने की तारीख और स्थान। अधिकांश नकली छवियों में इस डेटा का अभाव है या असंगत जानकारी है। मेटाडेटा तक पहुंचने और उसकी प्रामाणिकता को सत्यापित करने के लिए फोटो विश्लेषण टूल या ऐप्स का उपयोग करें।
रिवर्स इमेज सर्च:रिवर्स इमेज सर्च करने के लिए Google Images या TinEye जैसे ऑनलाइन टूल का उपयोग करें। इससे आपको छवि का मूल स्रोत ढूंढने और यह निर्धारित करने में मदद मिल सकती है कि क्या इसके साथ छेड़छाड़ की गई है।
अप्राकृतिक गतिविधियों की तलाश करें:वीडियो में वस्तुओं और लोगों की गतिविधियों की जांच करें। अप्रामाणिक वीडियो में अप्राकृतिक हरकतें प्रदर्शित हो सकती हैं, जैसे तैरती हुई वस्तुएं या झटकेदार हरकतें।
Comments