डीपफेक र उत्पीडन: कसरी सिंथेटिक सामग्री महिलाहरूलाई उत्पीडन गर्न प्रयोग गरिन्छ

छवि क्रेडिट:
छवि क्रेडिट
IStock

डीपफेक र उत्पीडन: कसरी सिंथेटिक सामग्री महिलाहरूलाई उत्पीडन गर्न प्रयोग गरिन्छ

डीपफेक र उत्पीडन: कसरी सिंथेटिक सामग्री महिलाहरूलाई उत्पीडन गर्न प्रयोग गरिन्छ

उपशीर्षक पाठ
हेरफेर गरिएका छविहरू र भिडियोहरूले महिलाहरूलाई लक्षित गर्ने डिजिटल वातावरणमा योगदान पुर्‍याइरहेका छन्।
    • लेखक:
    • लेखक नाम
      Quantumrun दूरदर्शिता
    • डिसेम्बर 14, 2022

    अन्तरदृष्टि सारांश

    डीपफेक टेक्नोलोजीको विकासले विशेष गरी महिलाहरू विरुद्ध यौन दुर्व्यवहारका घटनाहरू बढाएको छ। विज्ञहरू विश्वास गर्छन् कि सिंथेटिक मिडिया कसरी बनाउने, प्रयोग गर्ने र वितरण गर्ने बारे कडा कानुनहरू लागू नगरिएसम्म दुरुपयोग झन् बढ्नेछ। उत्पीडनको लागि डीपफेकहरू प्रयोग गर्ने दीर्घकालीन प्रभावहरूमा बढ्दो मुद्दाहरू र थप उन्नत डीपफेक प्रविधिहरू र फिल्टरहरू समावेश हुन सक्छन्।

    Deepfakes र उत्पीडन सन्दर्भ

    2017 मा, वेबसाइट Reddit मा एक छलफल बोर्ड पहिलो पटक कृत्रिम बुद्धिमत्ता (AI) - हेरफेर पोर्नोग्राफी होस्ट गर्न प्रयोग गरिएको थियो। एक महिना भित्र, Reddit थ्रेड भाइरल भयो, र हजारौं मानिसहरूले साइटमा आफ्नो डीपफेक पोर्नोग्राफी पोस्ट गरेका थिए। नक्कली पोर्नोग्राफी वा उत्पीडन सिर्जना गर्न प्रयोग गरिने सिंथेटिक सामग्री बढ्दो सामान्य हुँदै गएको छ, तर पनि सार्वजनिक चासोहरू प्राय: गलत सूचना र राजनीतिक अस्थिरतालाई बढावा दिने प्रचारमा केन्द्रित हुन्छन्। 

    "डीपफेक" शब्द "गहिरो शिक्षा" र "नक्कली" को संयोजन हो, AI को मद्दतले फोटो र भिडियोहरू पुन: सिर्जना गर्ने तरिका। यस सामग्रीको उत्पादनमा अत्यावश्यक कम्पोनेन्ट मेसिन लर्निङ (ML) हो, जसले मानव दर्शकहरूलाई पत्ता लगाउन गाह्रो हुने नक्कली सामग्रीको द्रुत र सस्तो सिर्जना गर्न अनुमति दिन्छ।

     डिपफेक भिडियो बनाउन लक्षित व्यक्तिको फुटेजसहित न्यूरल नेटवर्कलाई तालिम दिइन्छ। प्रशिक्षण डेटामा जति धेरै फुटेज प्रयोग गरिन्छ, परिणामहरू त्यति नै यथार्थवादी हुनेछन्; नेटवर्कले त्यो व्यक्तिको व्यवहार र अन्य व्यक्तित्व विशेषताहरू सिक्नेछ। एक पटक तंत्रिका नेटवर्क प्रशिक्षित भएपछि, जो कोहीले पनि अर्को अभिनेता वा शरीरमा व्यक्तिको समानताको प्रतिलिपि बनाउन कम्प्युटर-ग्राफिक्स प्रविधिहरू प्रयोग गर्न सक्छ। यो नक्कलले महिला सेलिब्रेटीहरू र नागरिकहरूलाई उनीहरूको तस्बिरहरू यस तरिकाले प्रयोग गरिएको छ भन्ने थाहा नभएका अश्लील सामग्रीहरूको संख्या बढेको छ। अनुसन्धान फर्म सेन्सिटी एआईका अनुसार सबै डिपफेक भिडियोहरूमध्ये लगभग 90 देखि 95 प्रतिशत गैर-सहमती पोर्नोग्राफी श्रेणीमा पर्छन्।

    विघटनकारी प्रभाव

    डीपफेकहरूले बदला लिने पोर्नको अभ्यासलाई बिगारेको छ, मुख्यतया महिलाहरूलाई उनीहरूलाई सार्वजनिक अपमान र आघातमा पर्दाफास गर्न लक्षित गर्दै। महिलाको गोपनीयता र सुरक्षा खतरामा परेको छ किनकि अन्त-देखि-अन्तको नक्कली भिडियो टेक्नोलोजी बढ्दो हतियार बनिरहेको छ, जस्तै, व्यक्तिगत र व्यावसायिक रूपमा महिलाहरूलाई उत्पीडन गर्ने, डराउने, अपमान गर्ने, र अपमान गर्ने। नराम्रो कुरा, यस प्रकारको सामग्री विरुद्ध पर्याप्त नियमन छैन।

    उदाहरणका लागि, २०२२ सम्म, अमेरिकाका ४६ राज्यहरूमा रिभेन्ज पोर्न सामग्रीमाथि प्रतिबन्ध लगाइएको छ, र केवल दुई राज्यहरूले स्पष्ट रूपमा सिंथेटिक मिडियालाई उनीहरूको प्रतिबन्धमा कभर गर्छन्। डीपफेकहरू आफैंमा गैरकानूनी छैनन्, केवल जब तिनीहरू प्रतिलिपि अधिकार उल्लङ्घन गर्छन् वा मानहानिपूर्ण हुन्छन्। यी सीमितताहरूले पीडितहरूलाई कानूनी कारबाही गर्न गाह्रो बनाउँदछ, विशेष गरी यस सामग्रीलाई स्थायी रूपमा अनलाइन मेटाउने कुनै तरिका छैन।

    यसैबीच, सिंथेटिक सामग्रीको अर्को रूप, अवतार (प्रयोगकर्ताहरूको अनलाइन प्रतिनिधित्व), पनि आक्रमणको अधीनमा छ। गैर-नाफामुखी वकालत संगठन SumOfUs को 2022 को रिपोर्ट अनुसार, संस्थाको तर्फबाट अनुसन्धान गरिरहेकी एक महिलालाई Metaverse प्लेटफर्म होराइजन वर्ल्ड्समा कथित रूपमा आक्रमण गरिएको थियो। महिलाले रिपोर्ट गरे कि अर्का प्रयोगकर्ताले उनको अवतारलाई यौन दुर्व्यवहार गरे जबकि अरूले हेरे। जब पीडितले घटनालाई मेटाको ध्यानमा ल्याए, मेटाका प्रवक्ताले भने कि अनुसन्धानकर्ताले व्यक्तिगत सीमा विकल्पलाई निष्क्रिय पारेको थियो। यो सुविधा फेब्रुअरी 2022 मा पूर्वनिर्धारित रूपमा सक्षम सुरक्षा सावधानीको रूपमा प्रस्तुत गरिएको थियो र अपरिचितहरूलाई चार फिट भित्र अवतारमा पुग्नबाट रोकेको थियो।

    deepfakes र उत्पीडन को प्रभाव

    deepfakes र उत्पीडनको व्यापक प्रभावहरू समावेश हुन सक्छन्: 

    • डिजिटल उत्पीडन र आक्रमणका लागि प्रयोग हुने डीपफेकहरू विरुद्ध विश्वव्यापी नियामक नीति लागू गर्न सरकारहरूलाई दबाब बढ्यो।
    • धेरै महिलाहरू डीपफेक टेक्नोलोजी, विशेष गरी सेलिब्रेटीहरू, पत्रकारहरू र कार्यकर्ताहरूबाट पीडित छन्।
    • गहिरो नक्कली उत्पीडन र मानहानिका पीडितहरूबाट मुद्दामा वृद्धि। 
    • मेटावर्स समुदायहरूमा अवतारहरू र अन्य अनलाइन प्रतिनिधित्वहरूप्रति अनुपयुक्त व्यवहारको बढ्दो घटनाहरू।
    • नयाँ र बढ्दो प्रयोग गर्न सजिलो डिपफेक एपहरू र फिल्टरहरू रिलीज भइरहेका छन् जसले यथार्थपरक सामग्री सिर्जना गर्न सक्छ, जसले गैर-सहमती डिपफेक सामग्री, विशेष गरी पोर्नोग्राफीको कमोडिफिकेशनमा नेतृत्व गर्दछ।
    • सामाजिक सञ्जाल र वेबसाइट होस्टिङ प्लेटफर्महरूले व्यक्तिहरूलाई प्रतिबन्ध लगाउने वा समूह पृष्ठहरू हटाउने सहित उनीहरूको प्लेटफर्महरूमा प्रसारित सामग्रीको भारी निगरानी गर्न थप लगानी गर्छन्।

    विचार गर्न प्रश्नहरु

    • तपाईको सरकारले गहिरो उत्पीडनलाई कसरी सम्बोधन गरिरहेको छ?
    • अनलाइन प्रयोगकर्ताहरूले आफूलाई डीपफेक सिर्जनाकर्ताहरूबाट पीडित हुनबाट जोगाउन सक्ने अन्य तरिकाहरू के छन्?