Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Technologia

11 stycznia 2024

Zmanipulowane media

Eksperci obawiają się, że nie poświęca się wystarczającej uwagi „płytkim podróbkom” i innym formom manipulacji cyfrowej. Skupianie się na „głębokich podróbkach”, czyli treściach generowanych przez sztuczną inteligencję, przedstawiających prawdziwe lub całkowicie fałszywe osoby, które mówią lub robią różne rzeczy, których faktycznie nie zrobiły, przyćmiło ciągłe zagrożenie ze strony „płytkich podróbek”.

Obejmują one prostsze manipulacje, takie jak błędne oznaczanie mediów w celu zasugerowania innego czasu lub miejsca, czy tez edytowanie treści w celu stworzenia fałszywych narracji. Chociaż manipulacje te nie są tak wyrafinowane jak „głębokie podróbki”, mogą w dalszym ciągu znacząco wpłynąć na odbiór publiczny, szczególnie na platformach społecznościowych. Ponieważ ponad 50 krajów przygotowuje się do wyborów krajowych w 2024 roku (w tym Stany Zjednoczone, Indie i Meksyk), rozprzestrzenianie się dezinformacji i nieprawdy pozostaje potężnym narzędziem kształtowania narracji politycznych.

Jednak firmy dopiero teraz zaczynają zastanawiać się, jak postępować z treściami generowanymi przez sztuczną inteligencję. YouTube wprowadził niedawno bardziej rygorystyczne zasady wymagające etykiet dla filmów tworzonych przez użytkowników, które wykorzystują generatywną sztuczną inteligencję.

Zarówno Meta, jak i YouTube wymagają od reklamodawców politycznych zarejestrowania się w firmie i podania dodatkowych informacji, takich jak kto kupuje reklamę i gdzie mają siedzibę. Są to jednak w dużej mierze informacje podawane przez samego zgłoszeniodawcę, co oznacza, że ​​ten wymóg jest łatwo ominąć.

Dodaj komentarz