Strona główna Polityka Google rozprawia się z jawnymi deepfakesami

Google rozprawia się z jawnymi deepfakesami

70
0


Kilka tygodni temu wyszukiwanie w Google hasła „deepfake nudes jennifer aniston” dało co najmniej siedem wysokich wyników, które rzekomo zawierały wyraźne zdjęcia aktorki wygenerowane przez sztuczną inteligencję. Teraz zniknęły.

Menedżerka produktu Google, Emma Higham, twierdzi, że wprowadzone w tym roku nowe zmiany w sposobie rankingu wyników firmy zmniejszyły już narażenie na fałszywe obrazy o charakterze jednoznacznie seksualnym o ponad 70 procent w przypadku wyszukiwań zawierających treści dotyczące konkretnej osoby. Tam, gdzie kiedyś mogły pojawić się problematyczne wyniki, algorytmy Google mają na celu promowanie artykułów prasowych i innych treści o charakterze niejawnym. Wyszukiwarka Aniston zwraca teraz takie artykuły, jak „Jak fałszywa sztuczna inteligencja Taylor Swift stanowi zagrożenie” i inne linki, takie jak ostrzeżenie prokuratora generalnego Ohio na temat „głęboko fałszywych oszustw związanych z poparciem celebrytów”, których celem są konsumenci.

„Dzięki tym zmianom ludzie będą mogli przeczytać o wpływie deepfake’ów na społeczeństwo, zamiast przeglądać strony zawierające fałszywe obrazy powstałe bez ich zgody” – napisał Higham w środę na firmowym blogu.

Zmiana rankingu jest następstwem dochodzenia WIRED przeprowadzonego w tym miesiącu, które ujawniło, że w ostatnich latach kierownictwo Google odrzuciło wiele pomysłów zaproponowanych przez pracowników i zewnętrznych ekspertów w celu zwalczania narastającego problemu intymnych wizerunków osób rozpowszechnianych w Internecie bez ich zgody.

Chociaż Google ułatwiło żądanie usunięcia niechcianych treści dla dorosłych, ofiary i ich zwolennicy wzywają do bardziej proaktywnych działań. Firma starała się jednak nie stać się zbyt dużym regulatorem Internetu i nie utrudniać dostępu do legalnej porno. W odpowiedzi rzecznik Google powiedział wówczas, że wiele zespołów pilnie pracuje nad wzmocnieniem zabezpieczeń przed tak zwanymi wyraźnymi obrazami wykonywanymi bez zgody użytkownika (NCEI).

Według zwolenników ofiar rosnąca dostępność generatorów obrazów AI, w tym niektórych z niewielkimi ograniczeniami w zakresie ich stosowania, doprowadziła do wzrostu liczby NCEI. Narzędzia te ułatwiły niemal każdemu tworzenie sfałszowanych, wyraźnych obrazów dowolnej osoby, niezależnie od tego, czy jest to kolega z klasy w gimnazjum, czy megacelebryta.

W marcu analiza WIRED wykazała, że ​​Google otrzymało ponad 13 000 żądań usunięcia linków do kilkunastu najpopularniejszych witryn zawierających jawne deepfake. Google usunął wyniki w około 82 procentach przypadków.

W ramach nowych działań Google Higham twierdzi, że firma zacznie stosować trzy z poniższych środków, aby ograniczyć wykrywalność prawdziwych, ale niechcianych, wyraźnych obrazów na rzecz tych, które są syntetyczne i niechciane. Gdy Google spełni żądanie usunięcia treści deepfake o charakterze seksualnym, spróbuje wykluczyć duplikaty z wyników. Odfiltruje także obrazy dla dorosłych z wyników zapytań podobnych do tych cytowanych w żądaniu usunięcia treści. I wreszcie, witryny, które otrzymały „dużą liczbę” pomyślnych żądań usunięcia treści, będą musiały stawić czoła degradacji w wynikach wyszukiwania.

„Te wysiłki mają na celu zapewnienie ludziom dodatkowego spokoju ducha, zwłaszcza jeśli obawiają się, że podobne treści na ich temat pojawią się w przyszłości” – napisał Higham.

Google przyznał, że te środki nie działają idealnie, a byli pracownicy i obrońcy ofiar twierdzą, że można byłoby pójść znacznie dalej. Wyszukiwarka wyraźnie ostrzega osoby w USA poszukujące nagich zdjęć dzieci, że takie treści są niezgodne z prawem. Skuteczność ostrzeżenia jest niejasna, ale jest to potencjalny środek odstraszający, popierany przez zwolenników. Jednak pomimo przepisów zabraniających udostępniania NCEI, podobne ostrzeżenia nie pojawiają się w przypadku wyszukiwań mających na celu podróbki seksualne dorosłych. Rzecznik Google potwierdził, że to się nie zmieni.



Link źródłowy