Ale nie chodzi tylko o to, że modele nie potrafią rozpoznać akcentów, języków, składni czy twarzy, które są mniej powszechne w krajach zachodnich. „Wiele początkowych narzędzi do wykrywania deepfake’ów zostało przeszkolonych na nośnikach wysokiej jakości” – mówi Gregory. Ale w dużej części świata, w tym w Afryce, jest tanio Chińskie marki smartfonów na rynku dominują urządzenia oferujące uproszczone funkcje. Zdjęcia i filmy, które są w stanie wygenerować te telefony, mają znacznie niższą jakość, co dodatkowo wprowadza w błąd modele wykrywania, mówi Ngamita.
Gregory twierdzi, że niektóre modele są tak wrażliwe, że nawet szum tła w utworze audio lub kompresja wideo na potrzeby mediów społecznościowych może dać fałszywie pozytywny lub negatywny wynik. „Ale to są dokładnie te same okoliczności, które można spotkać w prawdziwym świecie – wykrywanie nieostrożnych sytuacji i upadków” – mówi. Bezpłatne, ogólnodostępne narzędzia, do których prawdopodobnie będzie miała dostęp większość dziennikarzy, weryfikatorów faktów i członków społeczeństwa obywatelskiego, są również „wyjątkowo niedokładnymi, jeśli chodzi o radzenie sobie zarówno z nierównością dotyczącą tego, kto jest reprezentowany w danych szkoleniowych oraz wyzwań związanych z radzeniem sobie z materiałem o niższej jakości.”
Generatywna sztuczna inteligencja nie jest jedynym sposobem na tworzenie zmanipulowanych mediów. Tak zwane tanie podróbki, czyli media manipulowane poprzez dodawanie wprowadzających w błąd etykiet lub po prostu spowalnianie lub edycję dźwięku i obrazu, są również bardzo powszechne na Globalnym Południu, ale mogą zostać błędnie oznaczone jako manipulowane przez sztuczną inteligencję przez wadliwe modele lub nieprzeszkolonych badaczy.
Diya obawia się, że grupy korzystające z narzędzi, które z większym prawdopodobieństwem będą oznaczać treści spoza USA i Europy jako generowane przez sztuczną inteligencję, mogą mieć poważne konsekwencje na poziomie polityki, zachęcając ustawodawców do zajęcia się wyimaginowanymi problemami. „Istnieje ogromne ryzyko zawyżania tego rodzaju liczb” – mówi. A opracowywanie nowych narzędzi nie jest kwestią naciśnięcia przycisku.
Podobnie jak każda inna forma sztucznej inteligencji, budowanie, testowanie i uruchamianie modelu wykrywania wymaga dostępu do energii i centrów danych, które po prostu nie są dostępne w dużej części świata. „Jeśli mówisz tutaj o sztucznej inteligencji i rozwiązaniach lokalnych, bez strony obliczeniowej prawie niemożliwe jest uruchomienie któregokolwiek z naszych modeli, o których myślimy” – mówi Ngamita z Ghany. Bez lokalnych alternatyw badacze tacy jak Ngamita mają niewiele możliwości: zapłacić za dostęp do gotowego narzędzia, takiego jak oferowane przez Reality Defender, którego koszty mogą być zaporowe; używaj niedokładnych bezpłatnych narzędzi; lub spróbuj uzyskać dostęp za pośrednictwem instytucji akademickiej.
Na razie Ngamita twierdzi, że jego zespół musiał nawiązać współpracę z europejskim uniwersytetem, gdzie może przesyłać fragmenty treści do weryfikacji. Zespół Ngamity kompilował zbiór danych obejmujący możliwe przypadki deepfake’ów z całego kontynentu, co jego zdaniem jest cenne dla naukowców i badaczy próbujących dywersyfikować zbiory danych swoich modeli.
Jednak wysyłanie danych innej osobie ma również swoje wady. „Czas opóźnienia jest dość znaczny” – mówi Diya. „Minie co najmniej kilka tygodni, zanim ktoś będzie mógł z całą pewnością stwierdzić, że jest to wygenerowany przez sztuczną inteligencję, a do tego czasu ta treść i szkody już zostaną wyrządzone”.
Gregory twierdzi, że Witness, który prowadzi własny program szybkiego reagowania, otrzymuje „ogromną liczbę” spraw. „Już teraz wyzwaniem jest obsłużenie tych spraw w ramach czasowych, których potrzebują dziennikarze pierwszej linii, i przy natężeniu, z jakim zaczynają się spotykać” – mówi.
Diya twierdzi jednak, że skupienie się tak bardzo na wykrywaniu może odwrócić finansowanie i wsparcie od organizacji i instytucji, które ogólnie tworzą bardziej odporny ekosystem informacyjny. Zamiast tego, jej zdaniem, fundusze należy przeznaczać na rzecz serwisów informacyjnych i organizacji społeczeństwa obywatelskiego, które mogą wzbudzić poczucie zaufania publicznego. „Nie sądzę, że na to idą pieniądze” – mówi. „Myślę, że chodzi bardziej o wykrywanie”.