Strona główna Polityka „Naukowiec zajmujący się sztuczną inteligencją” wymyśla i przeprowadza własne eksperymenty

„Naukowiec zajmujący się sztuczną inteligencją” wymyśla i przeprowadza własne eksperymenty

22
0


Na pierwszy rzut oka niedawna seria artykułów naukowych opracowanych przez wybitne laboratorium sztucznej inteligencji na Uniwersytecie Kolumbii Brytyjskiej w Vancouver może nie wydawać się aż tak godna uwagi. Zawierające ciągłe udoskonalenia istniejących algorytmów i pomysłów, czyta się je jak treść przeciętnej konferencji lub czasopisma poświęconej sztucznej inteligencji.

Ale badania są rzeczywiście niezwykłe. Dzieje się tak dlatego, że jest to w całości dzieło „Naukowiec zajmujący się sztuczną inteligencją” opracowany w laboratorium UBC wspólnie z badaczami z Uniwersytetu Oksfordzkiego i startupem o nazwie Sakana AI.

The projekt pokazuje pierwszy krok w kierunku czegoś, co może okazać się rewolucyjną sztuczką: umożliwienia sztucznej inteligencji uczenia się poprzez wymyślanie i odkrywanie nowatorskich pomysłów. Po prostu w tej chwili nie są to jakieś super powieści. W kilku artykułach opisano poprawki mające na celu ulepszenie techniki generowania obrazu znanej jako modelowanie dyfuzyjne; inny przedstawia podejście do przyspieszania uczenia się w głębokich sieciach neuronowych.

„To nie są pomysły przełomowe. Nie są zbyt kreatywni” – przyznaje Jeffa Clune’aprofesora kierującego laboratorium UBC. „Ale wydają się całkiem fajnymi pomysłami, które ktoś może wypróbować”.

Choć dzisiejsze programy sztucznej inteligencji mogą być niesamowite, ich ograniczenia wynikają z konieczności wykorzystania danych szkoleniowych generowanych przez człowieka. Jeśli zamiast tego programy sztucznej inteligencji będą mogły uczyć się w sposób otwarty, poprzez eksperymentowanie i odkrywanie „interesujących” pomysłów, mogą odblokować możliwości wykraczające poza wszystko, co pokazali im ludzie.

Laboratorium Clune’a opracowało wcześniej programy AI zaprojektowane do uczenia się w ten sposób. Na przykład, jeden program o nazwie Omni próbował wygenerować zachowanie wirtualnych postaci w kilku środowiskach przypominających gry wideo, segregując te, które wydawały się interesujące, a następnie iterując na nich z nowymi projektami. Programy te wymagały wcześniej ręcznie kodowanych instrukcji w celu określenia atrakcyjności. Jednakże duże modele językowe umożliwiają programom identyfikowanie tego, co jest najbardziej intrygujące, ze względu na ich zdolność do naśladowania ludzkiego rozumowania. Inny najnowszy projekt z laboratorium Clune’a zastosowało to podejście, aby umożliwić programom AI wymyślenie kodu, który pozwala wirtualnym postaciom robić różne rzeczy w świecie przypominającym Roblox.

Naukowiec zajmujący się sztuczną inteligencją jest jednym z przykładów analizowania możliwości przez laboratorium Clune. Program przeprowadza eksperymenty z uczeniem maszynowym, za pomocą LLM decyduje, co wydaje się najbardziej obiecujące, a następnie pisze i uruchamia niezbędny kod — przepłucz i powtórz. Clune twierdzi, że pomimo rozczarowujących wyników programy do nauki otwartej, podobnie jak same modele językowe, mogłyby stać się znacznie wydajniejsze w miarę zwiększania się mocy komputera, która je zasila.

„To jak odkrywanie nowego kontynentu lub nowej planety” – Clune mówi o możliwościach, jakie otwierają LLM. „Nie wiemy, co odkryjemy, ale gdziekolwiek się obrócimy, znajdziemy coś nowego”.

Tomek Nadziejaadiunkt na Uniwersytecie Hebrajskim w Jerozolimie i pracownik naukowy w Allen Institute for AI (AI2), twierdzi, że naukowcy zajmujący się sztuczną inteligencją, podobnie jak LLM, wydają się wysoce pochodne i nie można ich uważać za wiarygodnych. „Żaden z komponentów nie jest obecnie godny zaufania” – mówi.

Hope zwraca uwagę, że wysiłki zmierzające do automatyzacji elementów odkryć naukowych sięgają kilkudziesięciu lat wstecz, aż do prac pionierów sztucznej inteligencji Allena Newella I Herberta Szymona w latach 70., a później w pracy Poklepać

Langleya w Instytucie Studiów nad Uczeniem się i Wiedzą Specjalistyczną. Zauważa również, że kilka innych grup badawczych, w tym zespół AI2, wykorzystało ostatnio LLM do pomocy w generowaniu hipotez, pisaniu artykułów i recenzowaniu badań. „Uchwycili ducha czasu” – mówi Hope o zespole UBC. „Ten kierunek jest oczywiście niezwykle cenny i potencjalnie”.

Nie jest jasne, czy systemy oparte na LLM będą w stanie kiedykolwiek zaproponować naprawdę nowatorskie lub przełomowe pomysły. „To pytanie warte bilion dolarów” – mówi Clune.

Nawet bez przełomów naukowych otwarte uczenie się może mieć kluczowe znaczenie dla opracowania bardziej wydajnych i użytecznych systemów sztucznej inteligencji tu i teraz. Raport opublikowany w tym miesiącu przez firmę inwestycyjną Air Street Capital podkreśla potencjał pracy Clune w zakresie opracowywania wydajniejszych i niezawodnych agentów AI, czyli programów, które samodzielnie wykonują przydatne zadania na komputerach. Wydaje się, że wszystkie duże firmy zajmujące się sztuczną inteligencją postrzegają agentów jako kolejną wielką rzecz.

W tym tygodniu laboratorium Clune ujawniło swój najnowszy otwarty projekt edukacyjny: an Program AI, który wymyśla i buduje agentów AI. Agenci zaprojektowani przez sztuczną inteligencję przewyższają agentów zaprojektowanych przez ludzi w niektórych zadaniach, takich jak matematyka i czytanie ze zrozumieniem. Następnym krokiem będzie opracowanie sposobów zapobiegania generowaniu przez taki system agentów, którzy zachowują się niewłaściwie. „To potencjalnie niebezpieczne” – mówi Clune o swojej pracy. Musimy to naprawić, ale myślę, że jest to możliwe”.



Link źródłowy