Hema raised the issue of deepfake related to celebrities | हेमा ने उठाया सेलिब्रिटी से जुड़ा डीपफेक का मुद्दा: संसद में बोलीं- नाम बनाने के लिए मेहनत करती हैं फेमस हस्तियां, हल्के में नहीं ले सकते


8 मिनट पहले

  • कॉपी लिंक

अभिनेत्री और भाजपा सांसद हेमा मालिनी ने 27 मार्च को लोकसभा में मशहूर हस्तियों को निशाना बनाने वाली डीपफेक टेक्नोलॉजी का मुद्दा उठाया। उन्होंने एआई और डीपफेक के नुकसान के साथ ट्रोलिंग से मेंटल हेल्थ पर होने वाले असर पर भी बात की।

शून्यकाल के दौरान मुद्दा उठाते हुए हेमा ने कहा कि आर्टिफिशियल इंटेलिजेंस और डीपफेक टेक्नोलॉजी ने दुनिया को अपनी चपेट में ले लिया है। हालांकि, इस तकनीक के कई फायदे हैं, लेकिन यह फिल्म उद्योग से जुड़ी मशहूर हस्तियों को भी निशाना बना रही है। इन मशहूर हस्तियों ने नाम, फेम और पॉपुलैरिटी पाने के लिए बहुत मेहनत की है। हममें से कई लोग इस दुरुपयोग के शिकार हो चुके हैं।

हेमा ने कहा, ‘ये वायरल हो जाते हैं और विक्टिम के मेंटल हेल्थ पर इसका बुरा असर डालते हैं। इसे हल्के में नहीं लिया जा सकता।’

इसके अलावा उन्होंने सोशल मीडिया पर सेलिब्रिटी की पर्सनल लाइफ को लेकर होने वाले ब्रूटल कमेंट का मुद्दा भी उठाया। उनका कहना था कि अक्सर सेलेब्स की बातों को तोड़-मरोड़ कर पेश किया जाता है।

स्टार जो डीपफेक का हुए शिकार

बता दें कि बॉलीवुड ऐसे कई स्टार हैं, जो डीफफेक का शिकार हो चुके हैं। साल 2024 के नवंबर में सोशल मीडिया पर रश्मिका मंदाना का एक डीपफेक वीडियो वायरल हुआ था। जारा पटेल नाम की एक इन्फ्लुएंसर की बॉडी में रश्मिका का चेहरा इस्तेमाल कर डीपफेक बनाया गया था।

रश्मिका के बाद काजोल का भी एक वीडियो वायरल हुआ था, जिसमें वो कपड़े बदलती दिखी थीं। फैक्ट चेक में सामने आया कि वो एक डीपफेक वीडियो था, जिसे एक इन्फ्लुएंसर ने जून में बनाया था।

आलिया भट्ट दो बार डीपफेक का शिकार हो चुकी हैं। डीपफेक वीडियो में आलिया भट्ट को ब्लैक कुर्ता में रेडी होते दिखाया गया था। पूरे क्लिप में वो कैमरे के सामने मेकअप करती नजर आ रही थीं।

इसके अलावा एक्ट्रेस नोरा फतेही, एक्टर रणवीर सिंह, आमिर खान,सोनू सूद, क्रिकेटर सचिन तेंदुलकर भी डीपफेक तकनीक का शिकार हो चुके हैं।

डीपफेक होता क्या है और कैसे बनाया जाता है?

डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।

किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।

इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।

खबरें और भी हैं…



Source link

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top