Duże modele językowe, takie jak ChatGPT, nie są w stanie samodzielnie uczyć się ani rozwijać nowych umiejętności, więc nie stanowią egzystencjalnego zagrożenia dla ludzkości.
Według ostatnich badań przeprowadzonych na Uniwersytecie w Bath i Uniwersytecie Technicznym w Darmstadt w Niemczech, ChatGPT i inne duże modele językowe (LLM) nie są w stanie samodzielnie uczyć się ani rozwijać nowych umiejętności, a zatem nie stanowią egzystencjalnego zagrożenia dla ludzkości.
Badanie opublikowane w ramach 62. dorocznego spotkania Association for Computational Linguistics (ACL 2024) – najważniejszej międzynarodowej konferencji poświęconej przetwarzaniu języka naturalnego – pokazuje, że osoby uczące się na poziomie LLM mają powierzchowną zdolność wykonywania instrukcji i doskonale biegłą w posługiwaniu się językiem nie mają jednak potencjału do opanowania nowych umiejętności bez wyraźnych instrukcji. Oznacza to, że można je z natury kontrolować, przewidywać i bezpiecznie.
Oznacza to, że można je z natury kontrolować, przewidywać i bezpiecznie.
Zespół badawczy doszedł do wniosku, że technologie LLM – które są szkolone na coraz większych zbiorach danych – można w dalszym ciągu wdrażać bez obaw o bezpieczeństwo, chociaż technologia ta nadal może być niewłaściwie wykorzystywana.
Wraz z rozwojem modele te będą prawdopodobnie generować bardziej wyrafinowany język i lepiej postępować zgodnie z wyraźnymi i szczegółowymi podpowiedziami, ale jest mało prawdopodobne, że zyskają umiejętności złożonego rozumowania.
Błędne przekonania na temat zagrożeń AI
„Przeważająca narracja, że tego typu sztuczna inteligencja stanowi zagrożenie dla ludzkości, uniemożliwia powszechne przyjęcie i rozwój tych technologii, a także odwraca uwagę od rzeczywistych problemów, na których należy się skupić” – powiedział dr Harish Tayyar Madabushi, informatyk z Uniwersytetu z Bath i współautor nowego badania na temat „emergentnych zdolności” LLM.
Wspólny zespół badawczy, kierowany przez profesor Irynę Gurevych z Politechniki w Darmstadt w Niemczech, przeprowadził eksperymenty, aby sprawdzić zdolność LLM do wykonywania zadań, z którymi modele nigdy wcześniej się nie spotkały – tak zwanych zdolności wyłaniających się.
Przykładowo, osoby LLM mogą odpowiadać na pytania dotyczące sytuacji społecznych, nawet jeśli nie zostały do tego specjalnie przeszkolone ani zaprogramowane. Podczas gdy poprzednie badania sugerowały, że jest to wynik modeli „wiedzących” o sytuacjach społecznych, badacze wykazali, że w rzeczywistości było to wynikiem modeli wykorzystujących dobrze znaną zdolność osób LLM do wykonywania zadań na podstawie kilku przedstawionych im przykładów, znanych jako „uczenie się w kontekście” (ICL).
Poprzez tysiące eksperymentów zespół wykazał, że połączenie zdolności LLM do wykonywania instrukcji (ICL), pamięci i biegłości językowej może wyjaśniać zarówno możliwości, jak i ograniczenia LLM.
Radzenie sobie ze strachem i błędnymi przekonaniami
Dr Tayyar Madabushi powiedział: „Obawiano się, że w miarę jak modele stają się coraz większe, będą w stanie rozwiązać nowe problemy, których nie możemy obecnie przewidzieć, co stwarza zagrożenie, że te większe modele mogą nabyć niebezpieczne umiejętności, w tym rozumowanie i planowanie.
„Wywołało to wiele dyskusji – na przykład na konferencji Szczyt bezpieczeństwa AI w zeszłym roku w Bletchley Park, w sprawie którego poproszono nas o komentarz – jednak z naszego badania wynika, że obawa, że modelka odejdzie i zrobi coś zupełnie nieoczekiwanego, innowacyjnego i potencjalnie niebezpiecznego, jest nieuzasadniona.
„Obawy dotyczące egzystencjalnego zagrożenia stwarzanego przez LLM nie ograniczają się do osób niebędących ekspertami i zostały wyrażone przez niektórych z czołowych badaczy sztucznej inteligencji na całym świecie”.
Jednak dr Tayyar Madabushi utrzymuje, że ta obawa jest bezpodstawna, ponieważ testy naukowców wyraźnie wykazały brak pojawiających się umiejętności złożonego rozumowania u osób z wykształceniem wyższym.
„Chociaż ważne jest zajęcie się istniejącym potencjałem niewłaściwego wykorzystania sztucznej inteligencji, takim jak tworzenie fałszywych wiadomości i zwiększone ryzyko oszustwa, przedwczesne byłoby wprowadzanie przepisów opartych na postrzeganych zagrożeniach egzystencjalnych” – stwierdził.
„Co ważne, dla użytkowników końcowych oznacza to, że poleganie na LLM w zakresie interpretacji i wykonywania złożonych zadań wymagających złożonego rozumowania bez wyraźnych instrukcji może być błędem. Zamiast tego użytkownicy prawdopodobnie odniosą korzyść z wyraźnego określenia, czego wymagają od modeli, i podania przykładów, jeśli to możliwe, dla wszystkich zadań z wyjątkiem najprostszych.
Profesor Gurevych dodał: „… nasze wyniki nie oznaczają, że sztuczna inteligencja w ogóle nie stanowi zagrożenia. Pokazujemy raczej, że rzekome pojawienie się umiejętności myślenia złożonego związanego z konkretnymi zagrożeniami nie jest poparte dowodami i że mimo wszystko możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem skupiać się na innych zagrożeniach stwarzanych przez modele, takich jak ich potencjał wykorzystania do generowania fałszywych wiadomości”.
Odniesienie: „Czy wyłaniające się umiejętności w dużych modelach językowych to tylko uczenie się w kontekście?” Sheng Lu, Irina Bigoulaeva, Rachneet Sachdeva, Harish Tayyar Madabushi i Iryna Gurevych, 15 lipca 2024 r., 62. doroczne spotkanie Stowarzyszenia Lingwistyki Komputerowej.
DOI: 10.48550/arXiv.2309.01809