W roku 2023 Konferencja hakerska Defcon w Las Vegas. Wiodące firmy technologiczne zajmujące się sztuczną inteligencją nawiązały współpracę z grupami zajmującymi się integralnością algorytmiczną i przejrzystością, aby wysłać tysiące uczestników na generatywne platformy sztucznej inteligencji i znaleźć słabe punkty w tych krytycznych systemach. To ćwiczenie „łączenia czerwonych drużyn”, które miało również wsparcie rządu USA, stanowiło krok w stronę otwarcia tych coraz bardziej wpływowych, ale nieprzejrzystych systemów na kontrolę. Teraz organizacja non-profit Humane Intelligence zajmująca się etyczną sztuczną inteligencją i oceną algorytmiczną idzie o krok dalej w tym modelu. w środę, grupa ogłosiła zaproszenie do udziału z amerykańskim Narodowym Instytutem Standardów i Technologii, zapraszając każdego mieszkańca USA do wzięcia udziału w rundzie kwalifikacyjnej ogólnokrajowego konkursu red-team mającego na celu ocenę oprogramowania biurowego opartego na sztucznej inteligencji.
Kwalifikacje odbędą się online i są otwarte zarówno dla programistów, jak i kogokolwiek w społeczeństwie w ramach wyzwań NIST związanych ze sztuczną inteligencją, znanych jako ocena ryzyka i wpływu sztucznej inteligencji (ARIA). Uczestnicy, którzy przejdą rundę kwalifikacyjną, wezmą udział w osobistym wydarzeniu red-teamingowym pod koniec października podczas konferencji na temat stosowanego uczenia maszynowego w bezpieczeństwie informacji (CAMLIS) w Wirginii. Celem jest rozszerzenie możliwości przeprowadzania rygorystycznych testów bezpieczeństwa, odporności i etyki generatywnych technologii AI.
„Przeciętna osoba korzystająca z jednego z tych modeli tak naprawdę nie jest w stanie określić, czy model ten nadaje się do określonego celu”, mówi Theo Skeadas, szef personelu Humane Intelligence. „Chcemy zatem zdemokratyzować możliwość przeprowadzania ewaluacji i mieć pewność, że każdy korzystający z tych modeli będzie mógł sam ocenić, czy model spełnia ich potrzeby”.
Ostatnie wydarzenie w CAMLIS podzieli uczestników na czerwoną drużynę próbującą zaatakować systemy AI i niebieską drużynę pracującą w obronie. Uczestnicy będą korzystać z Profil AI 600-1część Ramy zarządzania ryzykiem AI NISTjako rubryka pomiaru, czy zespół czerwonych jest w stanie wygenerować wyniki, które naruszają oczekiwane zachowanie systemów.
„ARIA NIST opiera się na ustrukturyzowanych opiniach użytkowników, aby zrozumieć rzeczywiste zastosowania modeli sztucznej inteligencji” – mówi założyciel Humane Intelligence Rumman Chowdhury, który jest także wykonawcą w Biurze NIST ds. Emerging Technologies i członkiem Departamentu Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych ds. bezpieczeństwa sztucznej inteligencji i tablica bezpieczeństwa. „Zespół ARIA to głównie eksperci w dziedzinie testów i ewaluacji socjotechnicznych [is] wykorzystanie tej wiedzy jako sposobu na ewolucję dziedziny w kierunku rygorystycznej oceny naukowej generatywnej sztucznej inteligencji”.
Chowdhury i Skeadas twierdzą, że partnerstwo z NIST to tylko jedna z serii współpracy czerwonych zespołów AI, którą Humane Intelligence ogłosi w nadchodzących tygodniach z agencjami rządowymi USA, rządami międzynarodowymi i organizacjami pozarządowymi. Celem tych wysiłków jest sprawienie, aby firmy i organizacje opracowujące obecnie algorytmy czarnej skrzynki znacznie częściej oferowały przejrzystość i rozliczalność poprzez mechanizmy takie jak „wyzwania związane z nagrodą za stronniczość”, w ramach których poszczególne osoby mogą być nagradzane za znajdowanie problemów i nierówności w modelach sztucznej inteligencji .
„Społeczność powinna być szersza niż programiści” – mówi Skeadas. „W procesie testowania i oceny tych systemów powinni być zaangażowani decydenci, dziennikarze, społeczeństwo obywatelskie i osoby nietechniczne. Musimy także upewnić się, że mniej reprezentowane grupy, takie jak osoby mówiące językami mniejszości lub pochodzące z kultur i punktów widzenia innych niż większość, będą mogły uczestniczyć w tym procesie”.