Strona główna Polityka Niewłaściwe użycie człowieka sprawi, że sztuczna inteligencja stanie się bardziej niebezpieczna

Niewłaściwe użycie człowieka sprawi, że sztuczna inteligencja stanie się bardziej niebezpieczna

8
0


Dyrektor generalny OpenAI Sam Altman oczekuje AGI, czyli sztuczna inteligencja ogólna – sztuczna inteligencja, która w większości zadań przewyższa ludzi – około 2027 lub 2028 r. Prognozy Elona Muska są albo 2025 lub 2026i ma twierdził że „tracił sen z powodu zagrożenia ze strony sztucznej inteligencji”. Takie prognozy są błędne. jako ograniczenia obecnej sztucznej inteligencji staje się coraz bardziej jasne, większość badaczy sztucznej inteligencji doszła do poglądu, że samo budowanie większych i potężniejszych chatbotów nie doprowadzi do AGI.

Jednak w 2025 r. sztuczna inteligencja nadal będzie stwarzać ogromne ryzyko: nie ze strony sztucznej superinteligencji, ale z powodu niewłaściwego wykorzystania jej przez człowieka.

Mogą to być niezamierzone nadużycia, np. nadmierne poleganie przez prawników na sztucznej inteligencji. Na przykład po udostępnieniu ChatGPT wielu prawników zostało ukaranych sankcjami za wykorzystywanie sztucznej inteligencji do generowania błędnych odpraw sądowych, najwyraźniej nieświadomych tendencji chatbotów do zmyślania. W Kolumbia Brytyjskaprawniczka Chong Ke została obciążona kosztami obrońcy strony przeciwnej po tym, jak uwzględniła w pozwie fikcyjne sprawy generowane przez sztuczną inteligencję. W Nowy JorkSteven Schwartz i Peter LoDuca zostali ukarani grzywną w wysokości 5000 dolarów za podawanie fałszywych cytatów. W KoloradoZachariah Crabil został zawieszony na rok za wykorzystywanie fikcyjnych spraw sądowych generowanych przy użyciu ChatGPT i obwinianie za błędy „stażysty prawnego”. Lista szybko rośnie.

Inne nadużycia są zamierzone. W styczniu 2024 r. platformy mediów społecznościowych zalały deepfake Taylor Swift o charakterze jednoznacznie seksualnym. Te obrazy zostały utworzone przy użyciu narzędzia AI „Designer” firmy Microsoft. Chociaż firma miała bariery zabezpieczające przed generowaniem wizerunków prawdziwych ludzi, błędna pisownia nazwiska Swifta wystarczyła, aby je ominąć. Od tego czasu Microsoft naprawił ten błąd. Jednak Taylor Swift to wierzchołek góry lodowej, a nielegalne deepfake’i rozprzestrzeniają się szeroko – po części dlatego, że narzędzia typu open source do tworzenia deepfake’ów są publicznie dostępne. Obowiązujące ustawodawstwo na całym świecie ma na celu zwalczanie deepfakes w nadziei na ograniczenie szkód. Czy będzie skuteczny, okaże się.

W 2025 r. odróżnienie tego, co prawdziwe od wymyślonego, stanie się jeszcze trudniejsze. Wierność dźwięku, tekstu i obrazów generowanych przez sztuczną inteligencję jest niezwykła, a wideo będzie następne. Może to prowadzić do „dywidendy kłamcy”: osoby sprawujące władzę odrzucają dowody swojego niewłaściwego zachowania, twierdząc, że są one fałszywe. W 2023 roku Tesla argumentował że wideo Elona Muska z 2016 r. mogło być deepfake’iem w odpowiedzi na zarzuty, że dyrektor generalny wyolbrzymił bezpieczeństwo autopilota Tesli, co doprowadziło do wypadku. Indyjski polityk twierdził, że nagrania audio, na których przyznaje się do korupcji w swojej partii politycznej, zostały sfałszowane (dźwięk w co najmniej jednym z jego klipów został sfałszowany) zweryfikowane jako prawdziwy przez prasę). Dwóch oskarżonych biorących udział w zamieszkach 6 stycznia stwierdziło, że filmy, w których się pojawili, były fałszywymi treściami. Obydwa były uznany winnym.

Tymczasem firmy wykorzystują zamieszanie społeczne do sprzedaży zasadniczo wątpliwych produktów, oznaczając je „sztuczną inteligencją”. Może się to źle skończyć, jeśli tego rodzaju narzędzia zostaną użyte do klasyfikacji ludzi i podejmowania na ich temat konkretnych decyzji. Na przykład firma zatrudniająca Retorio, roszczenia że jego sztuczna inteligencja przewiduje przydatność kandydatów na stanowisko na podstawie rozmów wideo, ale badanie wykazało, że system można oszukać po prostu przez obecność okularów lub zastąpienie zwykłego tła półką na książki, co pokazuje, że opiera się na powierzchownych korelacjach.

Istnieją również dziesiątki zastosowań w opiece zdrowotnej, edukacji, finansach, sądownictwie karnym i ubezpieczeniach, gdzie sztuczna inteligencja jest obecnie wykorzystywana do odmawiania ludziom ważnych szans życiowych. W Holandii holenderski organ podatkowy zastosował algorytm sztucznej inteligencji do identyfikacji osób, które dopuściły się oszustw związanych z zasiłkami na rzecz dzieci. To niesłusznie oskarżony tysiące rodziców, często żądając zwrotu dziesiątek tysięcy euro. W rezultacie premier i cały jego gabinet złożyli się do dymisji.

Oczekujemy, że w 2025 r. zagrożenia związane ze sztuczną inteligencją będą wynikać nie z działania sztucznej inteligencji samodzielnie, ale z tego, co z nią zrobią ludzie. Obejmuje to przypadki, w których wydaje się dobrze działać i na nim polega się nadmiernie (prawnicy korzystający z ChatGPT); kiedy działa dobrze i jest niewłaściwie wykorzystywane (deepfakes bez zgody i dywidenda dla kłamcy); i kiedy po prostu nie nadaje się do określonego celu (odmawianie ludziom ich praw). Ograniczanie tego ryzyka to ogromne zadanie stojące przed firmami, rządami i społeczeństwem. Będzie to wystarczająco trudne bez rozpraszania się zmartwieniami science-fiction.



Link źródłowy