Media syntetyczne a prawo: walka z wprowadzającymi w błąd treściami

KREDYT WZROKU:
Image credit
iStock

Media syntetyczne a prawo: walka z wprowadzającymi w błąd treściami

Media syntetyczne a prawo: walka z wprowadzającymi w błąd treściami

Tekst podtytułu
Rządy i firmy współpracują ze sobą, aby zapewnić, że media syntetyczne są odpowiednio ujawniane i regulowane.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 17 lutego 2023 r.

    Rozpowszechnianie dostępnych technologii syntetycznych lub fałszywych doprowadziło do tego, że konsumenci stają się bardziej podatni na dezinformację i zmanipulowane formy mediów – i bez zasobów niezbędnych do ochrony. Aby przeciwdziałać szkodliwym skutkom manipulacji treściami, kluczowe organizacje, takie jak agencje rządowe, media i firmy technologiczne, współpracują, aby uczynić media syntetyczne bardziej przejrzystymi.

    Media syntetyczne a kontekst prawny

    Oprócz propagandy i dezinformacji, syntetyczne lub zmienione cyfrowo treści doprowadziły do ​​wzrostu dysmorfii ciała i niskiej samooceny wśród młodzieży. Dysmorfia ciała to stan zdrowia psychicznego, który sprawia, że ​​​​ludzie mają obsesję na punkcie postrzeganych wad wyglądu. Nastolatki są szczególnie podatne na ten stan, ponieważ są nieustannie bombardowane przez narzucone przez społeczeństwo standardy piękna i akceptacji.

    Niektóre rządy współpracują z organizacjami, aby pociągnąć do odpowiedzialności podmioty wykorzystujące cyfrowo zmanipulowane filmy i zdjęcia w celu wprowadzenia ludzi w błąd. Na przykład Kongres USA uchwalił ustawę Deepfake Task Force Act w 2021 r. Ustawa ta powołała National Deepfake and Digital Provenance, składającą się z sektora prywatnego, agencji federalnych i środowisk akademickich. Ustawa opracowuje również cyfrowy standard pochodzenia, który identyfikowałby pochodzenie treści online i zmiany, które w nim wprowadzono.

    Ta ustawa uzupełnia inicjatywę Content Authenticity Initiative (CAI) prowadzoną przez firmę technologiczną Adobe. Protokół CAI umożliwia kreatywnym profesjonalistom uzyskanie uznania za ich pracę poprzez dołączenie danych umożliwiających stwierdzenie manipulacji, takich jak imię i nazwisko, lokalizacja i historia edycji do elementu multimedialnego. Norma ta zapewnia również konsumentom nowy poziom przejrzystości w zakresie tego, co widzą w Internecie.

    Według firmy Adobe technologie pochodzenia umożliwiają klientom przeprowadzanie analizy due diligence bez czekania na etykiety pośredników. Rozprzestrzenianie się fałszywych wiadomości i propagandy można spowolnić, ułatwiając użytkownikom online sprawdzanie pochodzenia treści i identyfikowanie legalnych źródeł.

    Zakłócający wpływ

    Posty w mediach społecznościowych to jeden z obszarów, w którym regulacje dotyczące mediów syntetycznych stają się bardziej potrzebne niż kiedykolwiek. W 2021 roku Norwegia uchwaliła prawo zabraniające reklamodawcom i osobom mającym wpływ na media społecznościowe udostępnianie wyretuszowanych zdjęć bez ujawniania, że ​​zdjęcie było edytowane. Nowe prawo ma wpływ na marki, firmy i influencerów, którzy publikują sponsorowane treści we wszystkich serwisach społecznościowych. Posty sponsorowane odnoszą się do treści opłaconych przez reklamodawcę, w tym do rozdawania towarów. 

    Poprawka wymaga ujawnienia wszelkich zmian wprowadzonych do obrazu, nawet jeśli zostały one wykonane przed zrobieniem zdjęcia. Na przykład filtry Snapchata i Instagrama, które modyfikują czyjś wygląd, musiałyby być oznaczone. Według strony medialnej Vice, niektóre przykłady tego, co należałoby oznaczyć, to „powiększone usta, zwężona talia i przesadne mięśnie”. Zakazując reklamodawcom i influencerom publikowania sfabrykowanych zdjęć bez przejrzystości, rząd ma nadzieję zmniejszyć liczbę młodych ludzi ulegających negatywnej presji ciała.

    Inne kraje europejskie zaproponowały lub przyjęły podobne przepisy. Na przykład Wielka Brytania wprowadziła ustawę Digitally Altered Body Images w 2021 r., która wymagałaby ujawnienia postów w mediach społecznościowych oznaczających wszelkie filtry lub zmiany. Brytyjski Urząd ds. Standardów Reklamowych zakazał również osobom mającym wpływ na media społecznościowe używania nierealistycznych filtrów upiększających w reklamach. W 2017 roku Francja przyjęła ustawę wymagającą, aby wszystkie obrazy komercyjne, które zostały cyfrowo zmienione, aby model wyglądał na cieńszego, zawierały etykietę ostrzegawczą podobną do tej, którą można znaleźć na paczkach papierosów. 

    Implikacje mediów syntetycznych i prawa

    Szersze konsekwencje moderowania mediów syntetycznych przez ustawodawstwo mogą obejmować: 

    • Więcej organizacji i rządów współpracujących w celu stworzenia standardów pochodzenia, aby pomóc konsumentom śledzić tworzenie i rozpowszechnianie informacji online.
    • Agencje antydezinformacyjne tworzące kompleksowe programy edukowania społeczeństwa w zakresie korzystania z technologii zwalczania deepfake'u i wykrywania ich wykorzystania.
    • Bardziej rygorystyczne przepisy, które wymagają od reklamodawców i firm unikania używania (lub przynajmniej ujawniania ich wykorzystania) przesadzonych i zmanipulowanych zdjęć w celach marketingowych.
    • Platformy mediów społecznościowych są pod presją, aby regulowały sposób, w jaki influencerzy używają swoich filtrów. W niektórych przypadkach filtry aplikacji mogą zostać zmuszone do automatycznego nadrukowywania znaku wodnego na edytowanych obrazach przed ich opublikowaniem w Internecie.
    • Zwiększenie dostępności technologii deepfake, w tym bardziej zaawansowanych systemów sztucznej inteligencji, które mogą utrudniać ludziom i protokołom wykrywanie zmienionych treści.

    Pytania do skomentowania

    • Jakie są przepisy obowiązujące w Twoim kraju dotyczące korzystania z mediów syntetycznych, jeśli takie istnieją?
    • W jaki inny sposób Twoim zdaniem należy uregulować treści związane z deepfake?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań:

    Kongres Stanów Zjednoczonych S.2559 — Ustawa o grupie zadaniowej Deepfake