Eksperci obawiają się, że nie poświęca się wystarczającej uwagi „płytkim podróbkom” i innym formom manipulacji cyfrowej. Skupianie się na „głębokich podróbkach”, czyli treściach generowanych przez sztuczną inteligencję, przedstawiających prawdziwe lub całkowicie fałszywe osoby, które mówią lub robią różne rzeczy, których faktycznie nie zrobiły, przyćmiło ciągłe zagrożenie ze strony „płytkich podróbek”.
“Video slideshow containing fake pictures generated by AI”
— Salman Sima (@SalmanSima) March 24, 2023
😁😁😁 pic.twitter.com/tPULE6VyHa
Obejmują one prostsze manipulacje, takie jak błędne oznaczanie mediów w celu zasugerowania innego czasu lub miejsca, czy tez edytowanie treści w celu stworzenia fałszywych narracji. Chociaż manipulacje te nie są tak wyrafinowane jak „głębokie podróbki”, mogą w dalszym ciągu znacząco wpłynąć na odbiór publiczny, szczególnie na platformach społecznościowych. Ponieważ ponad 50 krajów przygotowuje się do wyborów krajowych w 2024 roku (w tym Stany Zjednoczone, Indie i Meksyk), rozprzestrzenianie się dezinformacji i nieprawdy pozostaje potężnym narzędziem kształtowania narracji politycznych.
Jednak firmy dopiero teraz zaczynają zastanawiać się, jak postępować z treściami generowanymi przez sztuczną inteligencję. YouTube wprowadził niedawno bardziej rygorystyczne zasady wymagające etykiet dla filmów tworzonych przez użytkowników, które wykorzystują generatywną sztuczną inteligencję.
Zarówno Meta, jak i YouTube wymagają od reklamodawców politycznych zarejestrowania się w firmie i podania dodatkowych informacji, takich jak kto kupuje reklamę i gdzie mają siedzibę. Są to jednak w dużej mierze informacje podawane przez samego zgłoszeniodawcę, co oznacza, że ten wymóg jest łatwo ominąć.
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.