Strona główna Polityka Jak zwycięstwo Trumpa może uwolnić niebezpieczną sztuczną inteligencję

Jak zwycięstwo Trumpa może uwolnić niebezpieczną sztuczną inteligencję

30
0


Wymogi dotyczące raportowania są niezbędne, aby ostrzegać rząd o potencjalnie niebezpiecznych nowych możliwościach coraz potężniejszych modeli sztucznej inteligencji, twierdzi urzędnik rządu USA zajmujący się kwestiami związanymi ze sztuczną inteligencją. Urzędnik, który poprosił o anonimowość i możliwość swobodnego wypowiadania się, wskazuje Wstęp na OpenAI o „niekonsekwentnym odrzucaniu próśb o syntezę środków nerwowych” w swoim najnowszym modelu.

Urzędnik twierdzi, że obowiązek raportowania nie jest nadmiernie uciążliwy. Twierdzą, że w przeciwieństwie do przepisów dotyczących sztucznej inteligencji w Unii Europejskiej i Chinach, EO Bidena odzwierciedla „bardzo szerokie, lekkie podejście, które w dalszym ciągu wspiera innowacje”.

Nick Reese, który w latach 2019–2023 był pierwszym dyrektorem ds. nowych technologii w Departamencie Bezpieczeństwa Wewnętrznego, odrzuca konserwatywne twierdzenia, że ​​obowiązek raportowania zagrozi własności intelektualnej firm. Mówi też, że mogłoby to faktycznie przynieść korzyści start-upom, zachęcając je do opracowywania „bardziej wydajnych obliczeniowo” i mniej obciążających dane modeli sztucznej inteligencji, które nie mieszczą się w progu raportowania.

Siła sztucznej inteligencji sprawia, że ​​nadzór rządowy jest niezbędny, mówi Ami Fields-Meyer, która jako urzędnik ds. technologii Białego Domu pomagała sporządzać projekt EO Bidena.

„Mówimy o firmach, które twierdzą, że budują najpotężniejsze systemy w historii świata” – mówi Fields-Meyer. „Pierwszym obowiązkiem rządu jest ochrona ludzi. „Zaufaj mi, mamy to” nie jest szczególnie przekonującym argumentem.

Eksperci chwalą wytyczne NIST dotyczące bezpieczeństwa jako istotne źródło budowania zabezpieczeń w nowej technologii. Zauważają, że wadliwe modele sztucznej inteligencji mogą powodować poważne szkody społeczne, w tym dyskryminację w zakresie wynajmu i pożyczania oraz nieuzasadnioną utratę świadczeń rządowych.

Własne zamówienie Trumpa na pierwszą kadencję dotyczące sztucznej inteligencji wymagało od federalnych systemów sztucznej inteligencji poszanowania praw obywatelskich, co będzie wymagało badań nad szkodami społecznymi.

Branża AI ma w dużej mierze mile widziane Program bezpieczeństwa Bidena. „Słyszymy, że przeliterowanie tych kwestii jest ogólnie przydatne” – mówi amerykański urzędnik. W przypadku nowych firm z małymi zespołami „zwiększa to możliwości ich pracowników w zakresie rozwiązywania tych problemów”.

Wycofanie EO Bidena byłoby niepokojącym sygnałem, że „rząd USA zamierza zrezygnować z podejścia do bezpieczeństwa sztucznej inteligencji” – mówi Michael Daniel, były prezydencki doradca ds. cyberbezpieczeństwa, który obecnie kieruje Cyber ​​Threat Alliance, organizacją non-profit zajmującą się udostępnianiem informacji.

Jeśli chodzi o konkurencję z Chinami, obrońcy EO twierdzą, że zasady bezpieczeństwa faktycznie pomogą Ameryce zwyciężyć, zapewniając, że amerykańskie modele sztucznej inteligencji będą działać lepiej niż ich chińscy rywale i będą chronieni przed szpiegostwem gospodarczym Pekinu.

Dwie bardzo różne ścieżki

Jeśli Trump wygra Biały Dom w przyszłym miesiącu, należy spodziewać się radykalnej zmiany w podejściu rządu do bezpieczeństwa sztucznej inteligencji.

Republikanie chcą zapobiegać szkodom związanym ze sztuczną inteligencją, stosując „istniejące przepisy dotyczące czynów niedozwolonych i ustawowe”, zamiast wprowadzać nowe, szerokie ograniczenia dotyczące technologii, mówi Helberg, i opowiadają się za „znacznie większym skupieniem się na maksymalizacji możliwości, jakie daje sztuczna inteligencja, zamiast nadmiernego skupiania się na ryzyku”. łagodzenie.” To prawdopodobnie oznaczałoby zgubę dla wymogu raportowania i być może niektórych wytycznych NIST.

Wymóg raportowania może również stanąć w obliczu wyzwań prawnych teraz, gdy Sąd Najwyższy osłabił szacunek, jaki sądy okazywały agencjom przy ocenie ich przepisów.

A sprzeciw GOP mógłby nawet zagrozić NISTowi dobrowolne partnerstwa w testowaniu sztucznej inteligencji z wiodącymi firmami. „Co stanie się z tymi zobowiązaniami w nowej administracji?” – pyta urzędnik amerykański.

Ta polaryzacja wokół sztucznej inteligencji frustruje technologów, którzy obawiają się, że Trump podważy poszukiwania bezpieczniejszych modeli.

„Opieka nad sztuczną inteligencją wiąże się z zagrożeniami” – mówi Nicol Turner Lee, dyrektor Centrum Innowacji Technologicznych w Brookings Institution, „i niezwykle ważne jest, aby następny prezydent w dalszym ciągu zapewniał bezpieczeństwo i ochronę tych systemów”.



Link źródłowy