Strona główna Polityka Sztuczna inteligencja typu open source ma założycieli i FTC

Sztuczna inteligencja typu open source ma założycieli i FTC

31
0


Wiele wczorajszych wykładów było pełnych akronimów, których można się spodziewać po tym zgromadzeniu wybitnych panelistów: YC, FTC, AI, LLM. Jednak w trakcie rozmów przewijał się – można powiedzieć, że dla nich fundament – ​​motywacja do wspierania sztucznej inteligencji typu open source.

Był to wyraźny zwrot w lewo (lub powrót, jeśli jesteś fanem Linuksa) w porównaniu z latami 2010, w których mieliśmy obsesję na punkcie aplikacji, kiedy programiści wydawali się szczęśliwi, mogąc konteneryzować swoje technologie i przekazywać je większym platformom w celu dystrybucji.

Do wydarzenia doszło również zaledwie dwa dni po tym, jak dyrektor generalny Meta, Mark Zuckerberg, oświadczył, że „sztuczna sztuczna inteligencja typu open source jest drogą naprzód” i wypuścił Llamę 3.1, najnowszą wersję własnego algorytmu sztucznej inteligencji o otwartym kodzie źródłowym firmy Meta. Jak Zuckerberg ujął w swoim oświadczeniu, niektórzy technolodzy nie chcą już być „ograniczeni tym, co Apple pozwoli nam zbudować” ani spotykać się z arbitralnymi zasadami i opłatami za aplikacje.

Tak się składa, że ​​sztuczna inteligencja typu open source jest podejściem, jakim jest OpenAI nie wykorzystuje swoje największe GPT, pomimo tego, co może sugerować nazwa wielomiliardowego startupu. Oznacza to, że przynajmniej część kodu jest prywatna, a OpenAI nie udostępnia „wag” ani parametrów swoich najpotężniejszych systemów AI. Pobiera także opłaty za dostęp do swojej technologii na poziomie przedsiębiorstwa.

„Wraz z rozwojem złożonych systemów sztucznej inteligencji i architektur agentów stosowanie małych, ale dopracowanych modeli open source daje znacznie lepsze wyniki niż [OpenAI] GPT4 lub [Google] Bliźnięta. Jest to szczególnie prawdziwe w przypadku zadań korporacyjnych” – mówi Ali Golshan, współzałożyciel i dyrektor naczelny Gretel.ai, firmy zajmującej się danymi syntetycznymi. (Golshan nie był na imprezie YC).

„Nie sądzę, że będzie to walka OpenAI ze światem czy coś w tym rodzaju” – mówi Dave Yen, który prowadzi fundusz o nazwie Orange Collective dla odnoszących sukcesy absolwentów YC, aby wspierać wschodzących założycieli YC. „Myślę, że chodzi o stworzenie uczciwej konkurencji i środowiska, w którym startupy nie ryzykują śmierci następnego dnia, jeśli OpenAI zmieni swoje modele cenowe lub politykę”.

„To nie znaczy, że nie powinniśmy mieć zabezpieczeń” – dodał Yen – „ale nie chcemy też niepotrzebnie ograniczać stawek”.

Modele sztucznej inteligencji typu open source niosą ze sobą pewne nieodłączne ryzyko, przed którym ostrzegali bardziej ostrożni technolodzy – najbardziej oczywistym jest technologia Jest otwarte i bezpłatne. Osoby mające złe zamiary częściej wykorzystują te narzędzia do wyrządzania krzywdy niż w przypadku kosztownego prywatnego modelu sztucznej inteligencji. Naukowcy wskazali, że tak tanie i łatwe aby złe podmioty mogły wyszkolić wszelkie parametry bezpieczeństwa obecne w tych modelach sztucznej inteligencji.

Jak donosi Will Knight z WIRED, „otwarte oprogramowanie” to także mit w niektórych modelach sztucznej inteligencji. Dane użyte do ich szkolenia mogą nadal być utrzymywane w tajemnicy, ich licencje mogą ograniczać programistom możliwość tworzenia pewnych rzeczy, a ostatecznie mogą nadal przynosić korzyści pierwotnemu twórcy modeli bardziej niż ktokolwiek inny.

Niektórzy politycy, w tym senator stanu Kalifornia Scott Wiener, sprzeciwiają się nieograniczonemu rozwojowi wielkoskalowych systemów sztucznej inteligencji. Projekt ustawy o bezpieczeństwie i innowacjach AI firmy Wiener, SB 1047, wzbudził kontrowersje w kręgach technologicznych. Ma na celu ustanowienie standardów dla twórców modeli sztucznej inteligencji, których przeszkolenie kosztuje ponad 100 milionów dolarów, wymaga pewnego poziomu testów bezpieczeństwa przed wdrożeniem i tworzenia zespołów red-team, chroni sygnalistów pracujących w laboratoriach sztucznej inteligencji oraz zapewnia prokuratorowi stanowemu ogólne środki prawne, jeśli sztuczna inteligencja model powoduje ogromne szkody.

Sam Wiener wypowiadał się na czwartkowej konferencji YC w rozmowie moderowanej przez reporterkę Bloomberga Shirin Ghaffary. Powiedział, że jest „głęboko wdzięczny” osobom ze społeczności open source, które wypowiedziały się przeciwko ustawie, oraz że stan „wprowadził szereg poprawek bezpośrednio w odpowiedzi na niektóre z tych krytycznych opinii”. Wiener powiedział, że jedna z wprowadzonych zmian polega na tym, że ustawa wyraźniej definiuje teraz rozsądną ścieżkę zamknięcia modelu sztucznej inteligencji o otwartym kodzie źródłowym, który zszedł z torów.

Gwiazdą czwartkowego wydarzenia, które pojawiło się w programie w ostatniej chwili, był Andrew Ng, współzałożyciel Coursera, założyciel Google Brain i były główny naukowiec w Baidu. Ng, podobnie jak wielu innych obecnych, wypowiadał się w obronie modeli open source.

„To jeden z tych momentów, w których [it’s determined] czy przedsiębiorcom pozwoli się na dalsze wprowadzanie innowacji” – powiedziała Ng, „lub czy powinniśmy wydawać pieniądze przeznaczone na tworzenie oprogramowania na zatrudnianie prawników”.



Link źródłowy