BMJ’a donosi, że technologia deepfake jest wykorzystywana do tworzenia w mediach społecznościowych fałszywych rekomendacji produktów zdrowotnych przez znanych brytyjskich lekarzy telewizyjnych, co komplikuje wysiłki mające na celu identyfikację i eliminację tych wprowadzających w błąd filmów wideo.
Stwierdza, że niektórzy z najbardziej rozpoznawalnych brytyjskich lekarzy telewizyjnych są coraz częściej „głęboko sfałszowani” w filmach mających na celu sprzedaż oszukańczych produktów w mediach społecznościowych BMJ’a dzisiaj, 18 lipca.
Zaufane nazwiska, w tym Hilary Jones, Michael Mosley i Rangan Chatterjee, są wykorzystywane do promowania produktów rzekomo leczących nadciśnienie i cukrzycę oraz do sprzedaży żelków konopnych, wyjaśnia dziennikarz Chris Stokel-Walker.
Deepfaking to wykorzystanie sztuczna inteligencja (AI) w celu zmapowania cyfrowego podobieństwa prawdziwego człowieka na wideo przedstawiającego ciało, które nie należy do nich. Znalezienie wiarygodnych dowodów na to, jak bardzo jest to przekonujące, może być trudne, ale jedno z niedawnych badań sugeruje, że nawet połowa wszystkich osób, którym pokazano deepfake mówiące o tematyce naukowej, nie jest w stanie odróżnić ich od autentycznych filmów.
Ekonomia fałszywej dezinformacji
Współpracował z nim John Cormack, emerytowany lekarz mieszkający w Essex BMJ’a aby spróbować uchwycić skalę zjawiska tzw. fałszywych lekarzy w mediach społecznościowych.
„Konkluzja jest taka, że znacznie taniej jest wydawać pieniądze na tworzenie filmów wideo, niż na prowadzenie badań, opracowywanie nowych produktów i wprowadzanie ich na rynek w konwencjonalny sposób” – mówi.
Mnóstwo wątpliwych treści w mediach społecznościowych podszywających się pod podobizny popularnych lekarzy i celebrytów jest nieuniknioną konsekwencją rewolucji sztucznej inteligencji, przez którą obecnie żyjemy, mówi Henry Ajder, ekspert w dziedzinie technologii deepfake. „Gwałtowna demokratyzacja dostępnych narzędzi sztucznej inteligencji do klonowania głosu i generowania awatarów zmieniła krajobraz oszustw i podszywania się pod inne osoby”.
Zwalczanie wykorzystywania Deepfake
„Nastąpił znaczny wzrost tego rodzaju działań” – mówi Jones, który zatrudnia specjalistę ds. mediów społecznościowych, który przeszukuje sieć w poszukiwaniu fałszywych filmów, które błędnie przedstawiają jego poglądy, i próbuje je usunąć. „Nawet jeśli to zrobisz, po prostu pojawią się następnego dnia pod inną nazwą”.
Rzecznik Meta, firmy będącej właścicielem Facebooka i Instagrama, na której znajduje się wiele filmów znalezionych przez Cormacka, powiedział: BMJ: „Będziemy badać przykłady wskazane przez British Medical Journal. Nie zezwalamy na treści, które celowo wprowadzają w błąd lub mają na celu oszukanie innych i stale pracujemy nad poprawą wykrywania i egzekwowania zasad. Zachęcamy każdego, kto zobaczy treści, które mogą naruszać nasze zasady, do zgłaszania ich, abyśmy mogli zbadać sprawę i podjąć działania”.
Wyzwania i rozwiązania w identyfikowaniu Deepfakes
Deepfake działają, żerując na ludzkich emocjach, pisze Stokel-Walker, a w przypadku produktów medycznych jeszcze większe znaczenie ma emocjonalna więź z osobą, która mówi ci o cudownym leku lub wspaniałym produkcie medycznym.
Ktoś, kogo nie znasz, próbujący wmówić Ci zalety konkretnego leczenia, może wzbudzić podejrzenia. Jeśli jednak jest to osoba, którą widziałeś już wcześniej w mediach społecznościowych, telewizji lub radiu, istnieje większe prawdopodobieństwo, że uwierzysz w to, co mówi.
Wykrywanie deepfake’ów również może być trudne, mówi Ajder, ponieważ technologia uległa udoskonaleniu. „Trudno określić ilościowo skuteczność tej nowej formy oszustwa typu deepfake, ale rosnąca liczba krążących obecnie filmów sugeruje, że źli aktorzy odnoszą pewne sukcesy”.
Ci, których podobizny są dokooptowane, pozornie niewiele mogą z tym zrobić, ale Stokel-Walker oferuje kilka wskazówek, co zrobić, jeśli znajdziesz deepfake. Na przykład dokładnie przejrzyj treść, aby upewnić się, że Twoje podejrzenia są uzasadnione, a następnie zostaw komentarz, kwestionując jego prawdziwość. Skorzystaj z wbudowanych narzędzi do raportowania platformy, aby wyrazić swoje obawy, a na koniec zgłoś osobę lub konto, które udostępniło post.
Odniesienie: „Deepfakes i lekarze: Jak ludzie dają się oszukać oszustwom w mediach społecznościowych” 17 lipca 2024 r., BMJ’a.
DOI: 10.1136/bmj.q1319