Strona główna Polityka OpenAI zachwala nowe badania nad bezpieczeństwem sztucznej inteligencji. Krytycy mówią, że...

OpenAI zachwala nowe badania nad bezpieczeństwem sztucznej inteligencji. Krytycy mówią, że to dobry krok, ale niewystarczający

70
0


W ostatnich miesiącach OpenAI spotkało się z potępieniem ze strony tych, którzy sugerują, że może spieszyć się zbyt szybko i lekkomyślnie z rozwojem potężniejszej sztucznej inteligencji. Wydaje się, że firmie zależy na pokazaniu, że poważnie podchodzi do bezpieczeństwa sztucznej inteligencji. Dziś zaprezentowała badania, które według niej mogą pomóc badaczom w analizie modeli sztucznej inteligencji, nawet gdy staną się one bardziej wydajne i użyteczne.

Nowa technika to jeden z kilku pomysłów związanych z bezpieczeństwem AI, którymi firma reklamowała się w ostatnich tygodniach. Polega na zaangażowaniu dwóch modeli sztucznej inteligencji w rozmowę, która zmusza silniejszy model do zachowania bardziej przejrzystego lub „czytelnego” uzasadnienia, aby ludzie mogli zrozumieć, o co chodzi.

„To jest sedno misji budowania [artificial general intelligence] jest to zarówno bezpieczne, jak i korzystne” – mówi WIRED Yining Chen, badacz z OpenAI zaangażowany w prace.

Dotychczas prace testowano na modelu sztucznej inteligencji zaprojektowanym do rozwiązywania prostych problemów matematycznych. Badacze OpenAI poprosili model sztucznej inteligencji o wyjaśnienie swojego rozumowania w odpowiedzi na pytania lub rozwiązywaniu problemów. Drugi model jest szkolony w zakresie wykrywania, czy odpowiedzi są poprawne, czy nie, a badacze odkryli, że wzajemne powtarzanie się obu modeli zachęca osobę rozwiązującą matematykę do bardziej szczerości i przejrzystości w swoim rozumowaniu.

OpenAI publikuje publicznie artykuł szczegółowo opisujący to podejście. „To część długoterminowego planu badań nad bezpieczeństwem” – mówi Jan Hendrik Kirchner, kolejny badacz OpenAI zaangażowany w te prace. „Mamy nadzieję, że inni badacze będą mogli pójść w ich ślady i być może wypróbować także inne algorytmy”.

Przejrzystość i wyjaśnialność to kluczowe kwestie dla badaczy sztucznej inteligencji pracujących nad budowaniem wydajniejszych systemów. Rozbudowane modele językowe czasami oferują rozsądne wyjaśnienia, w jaki sposób doszli do wniosków, ale kluczową obawą jest to, że przyszłe modele mogą stać się bardziej nieprzejrzyste lub nawet zwodnicze w dostarczanych wyjaśnieniach – być może dążąc do niepożądanego celu, jednocześnie leżąc na jego temat.

Ujawnione dzisiaj badanie stanowi część szerszego wysiłku mającego na celu zrozumienie, jak działają duże modele językowe, które stanowią rdzeń programów takich jak ChatGPT. Jest to jedna z wielu technik, które mogą pomóc w uczynieniu potężniejszych modeli sztucznej inteligencji bardziej przejrzystymi, a przez to bezpieczniejszymi. OpenAI i inne firmy badają również bardziej mechaniczne sposoby zaglądania do wnętrza dużych modeli językowych.

W ostatnich tygodniach OpenAI ujawniło więcej informacji na temat swoich prac nad bezpieczeństwem sztucznej inteligencji po krytyce swojego podejścia. W maju WIRED dowiedział się, że zespół badaczy zajmujących się badaniem długoterminowego ryzyka związanego ze sztuczną inteligencją został rozwiązany. Nastąpiło to wkrótce po odejściu współzałożyciela i kluczowego lidera technicznego Ilyi Sutskevera, który był jednym z członków zarządu, który w listopadzie zeszłego roku na krótko usunął dyrektora generalnego Sama Altmana.

OpenAI opierało się na obietnicy, że dzięki niemu sztuczna inteligencja stanie się bardziej przejrzysta i bezpieczniejsza. Po ogromnym sukcesie ChatGPT i bardziej intensywnej konkurencji ze strony dobrze wspieranych rywali, niektórzy ludzie oskarżają firmę o przedkładanie spektakularnych postępów i udziału w rynku nad bezpieczeństwo.

Daniel Kokotajlo, badacz, który opuścił OpenAI i podpisał list otwarty, w którym krytykuje podejście firmy do bezpieczeństwa sztucznej inteligencji, twierdzi, że nowe prace są ważne, ale stopniowe i że nie zmienia to faktu, że firmy budujące technologię potrzebują większego nadzoru. „Sytuacja, w której się znaleźliśmy, pozostaje niezmieniona” – mówi. „Nieprzejrzyste, nieprzejrzyste, nieuregulowane korporacje ścigające się ze sobą w budowaniu sztucznej superinteligencji, w zasadzie bez planu, jak ją kontrolować”.

Inne źródło posiadające wiedzę na temat wewnętrznego funkcjonowania OpenAI, które prosiło o zachowanie anonimowości ze względu na brak upoważnienia do wypowiadania się publicznie, twierdzi, że potrzebny jest również zewnętrzny nadzór nad firmami zajmującymi się sztuczną inteligencją. „Pytanie brzmi, czy poważnie podchodzą do rodzajów procesów i mechanizmów zarządzania, których potrzebujesz, aby przedłożyć korzyści społeczne nad zysk” – mówi źródło. – Nie, czy pozwolą któremukolwiek z badaczy zająć się kwestiami związanymi z bezpieczeństwem.



Link źródłowy