New Delhi: चेहरा आपका, शरीर किसी और का, इस तरह के गंदे खेल खेल रहा AI, ये वीडियो है जीता-जागता सबूत

New Delhi: चेहरा आपका, शरीर किसी और का, इस तरह के गंदे खेल खेल रहा AI, ये वीडियो है जीता-जागता सबूत

तकनीक कितनी तेजी से आगे बढ़ रही है, इसका अंदाज़ा भी नहीं लगाया जा सकता है. आज के समय में मशीन द्वारा कोई भी काम चुटकियों में करवाया जा सकता है. हालांकि हर चीज़ का एक सही और गलत पहलू होता है और वही हो रहा है आर्टिफिशियल इंटेलिजेंस के साथ. कोई भी टेक्नोलॉजी इसलिए विकसित की जाती है ताकि उसके इस्तेमाल से हमें आगे बढ़ने में मदद मिले या चीज़ें आसान बन जाएं. लेकिन आज का दौर ऐसा है कि तकनीक के सही इस्तेमाल से पहले गलत इस्तेमाल होना शुरू हो जाता है. आर्टिफिशियल इंटेलिजेंस द्वारा डीपफेक को अंजाम दिया जा रहा है.

दरअसल सोशल मीडिया पर एक वीडियो बहुत तेजी से वायरल हो रहा है जिसमें कथित तौर पर अभिनेत्री रश्मिका मंदाना को एक लिफ्ट में एंटर करते हुए दिखाया गया है, लेकिन इस वीडियो को डीपफेक के रूप में पहचाना गया है. दरअसल इसके ओरिजिनल वीडियो में ब्रिटिश-भारतीय महिला ज़ारा पटेल हैं. बता दें कि कुछ दिन पहले अपने वीडियो को ज़ारा पटेल ने खुद इंस्टाग्राम पर अपलोड किया था.

वीडियो को करीब से देखने पर पता चलता है कि जब वह बंद हो रहे लिफ्ट के दरवाजे से निकलने की कोशिश करती है तो पटेल के चेहरे से लेकर रश्मिका तक एक स्मूद ट्रांसिशन दिखता है. गौर किया जाए तो पहले सेकंड अभिनेत्री का सिर ओरिजिनल वीडियो वाली ज़ारा के शरीर पर नहीं लगाया जाता है.

लेकिन ये इतना आराम से हो जाता है कि एक आम यूज़र आसानी से इस ट्रांसिशन को नहीं समझ पाएगा. इसलिए डीपफेक को भी पहले बार करीब एक महीने तक ध्यान नहीं दिया गया. इसे 8 अक्टूबर को ऑनलाइन पोस्ट किया गया था.

अब सवाल ये है कि डीपफेक क्या होता है और कैसे इससे बचा जा सकता है?

आज के समय में आर्टिफिशियल इंटेलिजेंस इस कदर हाईटेक हो चुकी है कि कोई भी आपकी फोटो से चंद मिनटों में डीप फेक (झूठी तस्वीर) बना सकता है. डीप फेक टर्म का मतलब है ऐसी तस्वीरें या वीडियो जिसमें चेहरा और शरीर तो आपका दिखेगा, लेकिन असल में वह आप नहीं होते हैं. पोर्न वीडियो में भी इसका काफी इस्तेमाल किया जाता है, जहां किसी और की बॉडी पर किसी और के चेहरे को लगा दिया जाता है. डराने वाली बात ये है कि किसी और के चेहरे पूरी वीडियो में लगा दिया जाता है, और इससे पहचानना काफी मुश्किल होता है.

उदाहरण के तौर पर आपकी एक फोटो है तो आपके चेहरे पर किसी सेलिब्रिटी के शरीर के साथ स्वैप किया जा सकता है. फोटो को देखने वाले को लगेगा कि फोटो में आप ही हैं, मगर असल में बॉडी किसी और की होती है. आर्टिफिशियल इंटेलिजेंस से इसे इतने आसानी से बनाया जाता है कि कोई भी नहीं समझ पाता है कि ये एडिटेड है.

कैसे रखें खुद को सेफ?

किसी भी इंसान का डीप फेक बनाने के लिए उसकी 5 या उससे अधिक तस्वीरों की जरूरत होती है. फिर आर्टिफिशियल इंटेलिजेंस इन तस्वीरों की स्टडी करके इन्हें सॉफ्टवेयर की शक्ल में स्टोर कर लेता है. ऐसे में आप एक काम ये कर सकते हैं कि सोशल मीडिया से अपनी फोटो हटा लें, या फिर उन्हें पब्लिक से हटाकर प्राइवेट कर दें. इस तरह से आपके फोटो का गलत इस्तेमाल होने से बचाया जा सकता है

Leave a Reply

Required fields are marked *