Strona główna Polityka Są już dostępne fałszywe oszustwa wideo w czasie rzeczywistym. To narzędzie próbuje...

Są już dostępne fałszywe oszustwa wideo w czasie rzeczywistym. To narzędzie próbuje je zaatakować

8
0


To ogłoszenie nie jest pierwszym przypadkiem, gdy firma technologiczna dzieli się planami pomocy w wykrywaniu deepfakes w czasie rzeczywistym. W 2022 roku Intel zadebiutował Narzędzie FakeCatcher do wykrywania deepfake’ów. FakeCatcher służy do analizowania zmian w przepływie krwi na twarzy w celu ustalenia, czy uczestnik wideo jest prawdziwy. Narzędzie Intela również nie jest publicznie dostępne.

Badacze akademiccy również szukają różnych podejść do zwalczania tego konkretnego rodzaju zagrożenia opartego na deepfake’ach. „Te systemy stają się tak wyrafinowane, że potrafią tworzyć deepfakes. Potrzebujemy teraz jeszcze mniej danych” – mówi Govind Mittal, doktorant informatyki na Uniwersytecie Nowojorskim. „Jeśli mam 10 zdjęć na Instagramie, ktoś może je zrobić. Mogą celować w normalnych ludzi.

Deepfakes w czasie rzeczywistym nie są już zarezerwowane dla miliarderów, osób publicznych ani osób szeroko obecnych w Internecie. Badania Mittala na Uniwersytecie Nowojorskim, prowadzone pod kierunkiem profesorów Chinmay Hegde i Nasira Memona, proponują potencjalny podejście oparte na wyzwaniach do blokowania AI-botów w rozmowach wideo, w przypadku których uczestnicy przed dołączeniem musieliby przejść coś w rodzaju testu wideo CAPTCHA.

Ponieważ Reality Defender pracuje nad poprawą dokładności wykrywania swoich modeli, Colman twierdzi, że dostęp do większej ilości danych jest kluczowym wyzwaniem, które należy przezwyciężyć – co jest częstą rezygnacją z obecnej grupy start-upów zajmujących się sztuczną inteligencją. Ma nadzieję, że więcej partnerstw wypełni te luki, a bez szczegółów sugeruje, że w przyszłym roku pojawi się wiele nowych umów. Po tym, jak ElevenLabs zostało powiązane z fałszywym połączeniem głosowym prezydenta USA Joe Bidena, start-up AI-audio zawarł umowę z Reality Defender, aby ograniczyć potencjalne nadużycia.

Co możesz teraz zrobić, aby uchronić się przed oszustwami związanymi z rozmowami wideo? Podobnie jak w przypadku głównej rady WIRED dotyczącej unikania oszustw związanych z połączeniami głosowymi AI, nie zamartwianie się tym, czy uda się wykryć fałszywe treści wideo, ma kluczowe znaczenie dla uniknięcia oszustwa. Technologia w tej przestrzeni stale ewoluuje szybko, a wszelkie charakterystyczne oznaki, na których teraz polegasz, aby wykryć deepfake AI, mogą nie być tak niezawodne w przypadku kolejnych aktualizacji podstawowych modeli.

„Nie prosimy mojej 80-letniej matki o zgłaszanie oprogramowania ransomware w wiadomości e-mail” – mówi Colman. „Ponieważ nie jest ekspertem w dziedzinie informatyki”. W przyszłości możliwe uwierzytelnianie wideo w czasie rzeczywistym, jeśli wykrywanie AI będzie się nadal poprawiać i będzie niezawodne, będzie tak samo oczywiste, jak skaner złośliwego oprogramowania cicho brzęczący w tle Twojej skrzynki e-mail.



Link źródłowy