Istnieje rosnąca tendencja, że ludzie i organizacje odrzucają niechciane narzucanie sztucznej inteligencji w swoim życiu. W grudniu 2023 r. The New York Times pozwał OpenAI i Microsoft za naruszenie praw autorskich. W marcu 2024 r. trzech autorów złożyło w Kalifornii pozew zbiorowy przeciwko firmie Nvidia za rzekome przeszkolenie jej platformy AI NeMo w zakresie ich dzieł chronionych prawem autorskim. Dwa miesiące później czołowa aktorka Scarlett Johansson wysłała list prawny do OpenAI, gdy zdała sobie sprawę, że nowy głos ChatGPT jest „niesamowicie podobny” do jej głosu.
Technologia nie jest tutaj problemem. Dynamika mocy jest. Ludzie rozumieją, że ta technologia jest tworzona na ich danych, często bez naszej zgody. Nic dziwnego, że zaufanie społeczne do sztucznej inteligencji spada. Niedawne badanie przeprowadzone przez Badania Pewa pokazuje, że ponad połowa Amerykanów jest bardziej zaniepokojona sztuczną inteligencją niż podekscytowana; opinię tę podziela większość mieszkańców Ameryki Środkowej i Południowej, Afryki i Bliskiego Wschodu w badaniu Światowa ankieta dotycząca ryzyka.
W 2025 r. ludzie będą domagać się większej kontroli nad sposobem wykorzystania sztucznej inteligencji. Jak to zostanie osiągnięte? Jednym z przykładów jest red teaming, praktyka zapożyczona z wojska i stosowana w cyberbezpieczeństwie. W ramach czerwonego ćwiczenia zespołowego eksperci zewnętrzni proszeni są o „infiltrację” lub złamanie systemu. Działa jak test tego, gdzie Twoja obrona może pójść nie tak, abyś mógł ją naprawić.
Duże firmy zajmujące się sztuczną inteligencją wykorzystują technologię Red Teaming do wyszukiwania problemów w swoich modelach, ale nie jest ona jeszcze powszechna jako praktyka do użytku publicznego. To się zmieni w 2025 roku.
Na przykład kancelaria prawnicza DLA Piper wykorzystuje obecnie współpracę z prawnikami w celu bezpośredniego sprawdzenia, czy systemy sztucznej inteligencji są zgodne z ramami prawnymi. Moja organizacja non-profit Humane Intelligence organizuje ćwiczenia w zakresie czerwonego zespołu z ekspertami nietechnicznymi, rządami i organizacjami społeczeństwa obywatelskiego, aby przetestować sztuczną inteligencję pod kątem dyskryminacji i uprzedzeń. W 2023 r. przeprowadziliśmy ćwiczenia Red Teaming, w których wzięło udział 2200 osób, przy wsparciu Białego Domu. W 2025 r. nasze wydarzenia związane z red teamingiem będą opierać się na żywych doświadczeniach zwykłych ludzi w celu oceny modeli sztucznej inteligencji pod kątem islamofobii oraz ich zdolności do umożliwiania molestowania kobiet w Internecie.
W przeważającej mierze, gdy prowadzę takie ćwiczenia, najczęstszym pytaniem, jakie mi zadaje, jest to, w jaki sposób możemy przejść od identyfikowania problemów do samodzielnego rozwiązywania problemów. Innymi słowy, ludzie chcą prawa do naprawy.
Prawo sztucznej inteligencji do naprawy mogłoby wyglądać tak – użytkownik mógłby mieć możliwość przeprowadzenia diagnostyki sztucznej inteligencji, zgłoszenia wszelkich anomalii i sprawdzenia, kiedy zostaną one naprawione przez firmę. Zewnętrzne grupy, takie jak etyczni hakerzy, mogą tworzyć łatki lub poprawki problemów, do których każdy może uzyskać dostęp. Możesz też zatrudnić niezależną, akredytowaną stronę, aby oceniła system sztucznej inteligencji i dostosowała go do swoich potrzeb.
Chociaż dziś jest to koncepcja abstrakcyjna, przygotowujemy grunt pod prawo do naprawy, które stanie się rzeczywistością w przyszłości. Odwrócenie obecnej, niebezpiecznej dynamiki władzy będzie wymagało trochę pracy — szybko jesteśmy zmuszani do normalizacji świata, w którym firmy zajmujące się sztuczną inteligencją po prostu umieszczają nowe i nieprzetestowane modele sztucznej inteligencji w rzeczywistych systemach, a zwykli ludzie są ofiarą uboczną. Prawo do naprawy daje każdemu człowiekowi możliwość kontrolowania sposobu wykorzystania sztucznej inteligencji w jego życiu. Rok 2024 był rokiem, w którym świat obudził się i zauważył wszechobecność i wpływ sztucznej inteligencji. Rok 2025 to rok, w którym domagamy się naszych praw.