Mittelsteadt dodaje, że Trump mógłby karać firmy na różne sposoby. Przytacza na przykład sposób, w jaki rząd Trumpa anulował duży kontrakt federalny z Amazon Web Services, na decyzję prawdopodobnie wpłynął pogląd byłego prezydenta na „Washington Post” i jego właściciela, Jeffa Bezosa.
Decydenci nie będą mieli trudności ze wskazaniem dowodów na stronniczość polityczną w modelach sztucznej inteligencji, nawet jeśli działa to w obie strony.
A Badanie 2023 przez badaczy z Uniwersytetu Waszyngtońskiego, Uniwersytetu Carnegie Mellon i Uniwersytetu Xi’an Jiaotong odkryli szereg skłonności politycznych w różnych dużych modelach językowych. Pokazało również, jak to uprzedzenie może wpłynąć na działanie systemów wykrywania mowy nienawiści i dezinformacji.
Kolejne badanieprzeprowadzone przez naukowców z Uniwersytetu Nauki i Technologii w Hongkongu wykazało stronniczość w kilku modelach sztucznej inteligencji o otwartym kodzie źródłowym w odniesieniu do polaryzujących kwestii, takich jak imigracja, prawa reprodukcyjne i zmiany klimatyczne. Yejin Bang, doktorantka zaangażowana w tę pracę, twierdzi, że większość modeli jest raczej liberalna i skoncentrowana na USA, ale te same modele mogą wyrażać różnorodne liberalne lub konserwatywne uprzedzenia, w zależności od tematu.
Modele sztucznej inteligencji wychwytują uprzedzenia polityczne, ponieważ są szkolone na obszarach danych internetowych, które nieuchronnie obejmują wszelkiego rodzaju perspektywy. Większość użytkowników może nie być świadoma stronniczości narzędzi, których używają, ponieważ modele zawierają bariery uniemożliwiające im generowanie pewnych szkodliwych lub stronniczych treści. Te uprzedzenia mogą jednak subtelnie wyciekać, a dodatkowe szkolenie, które przechodzą modelki w celu ograniczenia ich wyników, może wprowadzić dalszą stronniczość. „Programiści mogą zapewnić, że modele będą prezentowane z wielu perspektyw na tematy powodujące podziały, co umożliwi im reagowanie w oparciu o zrównoważony punkt widzenia” – mówi Bang.
Problem może się pogorszyć, gdy systemy sztucznej inteligencji staną się bardziej wszechobecne – mówi Ashique KhudaBukhshinformatyk z Rochester Institute of Technology, który opracował narzędzie o nazwie Toxicity Rabbit Hole Framework, które bada różne społeczne uprzedzenia dużych modeli językowych. „Obawiamy się, że wkrótce rozpocznie się błędne koło, ponieważ nowe generacje LLM będą w coraz większym stopniu szkolone w oparciu o dane zanieczyszczone treściami generowanymi przez sztuczną inteligencję” – mówi.
„Jestem przekonany, że to uprzedzenie w ramach programów LLM już stanowi problem, a w przyszłości najprawdopodobniej będzie jeszcze większy” – mówi Luca Rettenberger, pracownik naukowy ze stopniem doktora w Instytucie Technologii w Karlsruhe, który przeprowadził analizę LLM pod kątem uprzedzeń związanych z do polityki niemieckiej.
Rettenberger sugeruje, że grupy polityczne mogą również próbować wpływać na LLM, aby promować własne poglądy ponad poglądami innych. „Jeśli ktoś jest bardzo ambitny i ma złe zamiary, możliwe jest skierowanie LLM w określonym kierunku” – mówi. „Postrzegam manipulację danymi szkoleniowymi jako realne niebezpieczeństwo.”
Podjęto już pewne wysiłki, aby zmienić równowagę stronniczości w modelach sztucznej inteligencji. W marcu ubiegłego roku jeden z programistów opracował chatbota o bardziej prawicowym charakterze, próbując uwypuklić subtelne błędy, które dostrzegł w narzędziach takich jak ChatGPT. Musk sam obiecał, że Grok, chatbot AI zbudowany przez xAI, będzie „maksymalnie poszukujący prawdy” i mniej stronniczy niż inne narzędzia AI, chociaż w praktyce zabezpiecza również w przypadku trudnych kwestii politycznych. (Musk, zagorzały zwolennik Trumpa i jastrząb imigracyjny, jego pogląd na „mniej stronniczy” może również przełożyć się na wyniki bardziej prawicowe).
Jest mało prawdopodobne, że przyszłotygodniowe wybory w Stanach Zjednoczonych załagodzą niezgodę między Demokratami i Republikanami, ale jeśli Trump wygra, rozmowy o sztucznej inteligencji przeciwdziałającej przebudzeniu mogą stać się znacznie głośniejsze.
Podczas tegotygodniowego wydarzenia Musk przedstawił apokaliptyczne podejście do tej kwestii, odnosząc się do incydentu, gdy należące do Google Gemini stwierdziło, że lepsza będzie wojna nuklearna niż wprowadzenie w błąd Caitlyn Jenner. „Jeśli masz sztuczną inteligencję zaprogramowaną do takich rzeczy, mogłaby dojść do wniosku, że najlepszym sposobem, aby upewnić się, że nikt nie zostanie pomylony z płcią, jest unicestwienie wszystkich ludzi, co sprawi, że prawdopodobieństwo wystąpienia błędnej płci w przyszłości będzie zerowe” – powiedział.