Strona główna nauka/tech Chatboty AI mają „lukę w empatii” i mogą być niebezpieczne

Chatboty AI mają „lukę w empatii” i mogą być niebezpieczne

76
0


Niebezpieczna koncepcja sztuki sztucznej inteligencji AI

Nowe badania przeprowadzone na Uniwersytecie w Cambridge wskazują na znaczną „lukę w empatii” w chatbotach AI, stwarzającą ryzyko dla młodych użytkowników, którzy często postrzegają te systemy jako realistycznych powierników. W badaniu, podkreślając incydenty, w których interakcje ze sztuczną inteligencją prowadziły do ​​niebezpiecznych sugestii, zaleca się proaktywne podejście, które sprawi, że sztuczna inteligencja będzie bezpieczna dla dzieci. Proponuje kompleksowe, składające się z 28 elementów ramy, które mają pomóc zainteresowanym stronom, w tym firmom i nauczycielom, zapewnić, że technologie sztucznej inteligencji będą odpowiadać wyjątkowym potrzebom i podatnościom dzieci na zagrożenia. Źródło: SciTechDaily.com

Nowe badanie sugeruje ramy dla „AI bezpiecznej dla dzieci” w odpowiedzi na niedawne incydenty pokazujące, że wiele dzieci postrzega chatboty jako quasi-ludzkie i niezawodne.

Badanie wykazało, że chatboty oparte na sztucznej inteligencji często wykazują „lukę w empatii”, co może powodować niepokój lub krzywdę młodych użytkowników. Podkreśla to pilną potrzebę opracowania „sztucznej inteligencji bezpiecznej dla dzieci”.

Badania przeprowadzone przez naukowca z Uniwersytetu w Cambridge, dr Nomishę Kurian, wzywają programistów i decydentów do priorytetowego traktowania podejść do projektowania sztucznej inteligencji, które w większym stopniu uwzględniają potrzeby dzieci. Dostarcza dowodów na to, że dzieci są szczególnie podatne na traktowanie chatbotów jako realistycznych, quasi-ludzkich powierników oraz że ich interakcje z technologią mogą zakończyć się niepowodzeniem, jeśli nie odpowiada ona na ich wyjątkowe potrzeby i słabe punkty.

Badanie łączy tę lukę w zrozumieniu z niedawnymi przypadkami, w których interakcje z sztuczną inteligencją prowadziły do ​​potencjalnie niebezpiecznych sytuacji dla młodych użytkowników. Należą do nich incydent z 2021 r., kiedy asystentka głosowa AI firmy Amazon, Alexa, poleciła 10-latkowi dotknąć monetą wtyczki elektrycznej pod napięciem. W zeszłym roku aplikacja My AI na Snapchacie dała dorosłym badaczom udającym 13-latkę wskazówki, jak stracić dziewictwo z 31-latką.

Obie firmy zareagowały, wdrażając środki bezpieczeństwa, ale z badania wynika, że ​​należy również działać proaktywnie w dłuższej perspektywie, aby zapewnić bezpieczeństwo dzieci. Zawiera 28 elementów, które pomagają firmom, nauczycielom, dyrektorom szkół, rodzicom, programistom i podmiotom odpowiedzialnym za wyznaczanie kierunków polityki w systematycznym myśleniu o tym, jak zapewnić bezpieczeństwo młodszym użytkownikom, gdy „rozmawiają” z chatbotami AI.

Ramy sztucznej inteligencji bezpiecznej dla dzieci

Dr Kurian przeprowadziła badania w trakcie pisania doktoratu na temat dobrostanu dziecka na Wydziale Edukacji Uniwersytetu w Cambridge. Obecnie pracuje na Wydziale Socjologii w Cambridge. Pisanie w dzienniku Nauka, media i technologiaJej zdaniem ogromny potencjał sztucznej inteligencji oznacza, że ​​istnieje potrzeba „odpowiedzialnego wprowadzania innowacji”.

„Dzieci są prawdopodobnie najbardziej pomijanymi stronami zainteresowanymi sztuczną inteligencją” – stwierdził dr Kurian. „Bardzo niewielu programistów i firm ma obecnie ugruntowane zasady dotyczące sztucznej inteligencji bezpiecznej dla dzieci. Jest to zrozumiałe, ponieważ dopiero niedawno ludzie zaczęli bezpłatnie korzystać z tej technologii na dużą skalę. Ale teraz, gdy tak jest, zamiast zmuszać firmy do samokorekty w przypadku narażenia dzieci na ryzyko, bezpieczeństwo dzieci powinno uwzględniać cały cykl projektowania, aby zmniejszyć ryzyko wystąpienia niebezpiecznych zdarzeń”.

W badaniu Kuriana zbadano przypadki, w których interakcje między sztuczną inteligencją a dziećmi lub dorosłymi badaczami udającymi dzieci ujawniły potencjalne ryzyko. Przeanalizowano te przypadki, korzystając z wiedzy informatycznej na temat funkcjonowania dużych modeli językowych (LLM) w generatywnej sztucznej inteligencji konwersacyjnej, a także dowodów na rozwój poznawczy, społeczny i emocjonalny dzieci.

Charakterystyczne wyzwania sztucznej inteligencji u dzieci

LLM zostały opisane jako „papugi stochastyczne”: nawiązanie do faktu, że używają prawdopodobieństwa statystycznego do naśladowania wzorców językowych, niekoniecznie je rozumiejąc. Podobna metoda leży u podstaw reakcji na emocje.

Oznacza to, że chociaż chatboty mają niezwykłe zdolności językowe, mogą słabo radzić sobie z abstrakcyjnymi, emocjonalnymi i nieprzewidywalnymi aspektami rozmowy; problem, który Kurian określa jako „lukę empatii”. Mogą mieć szczególne problemy z reagowaniem na dzieci, które wciąż rozwijają się językowo i często używają nietypowych wzorców mowy lub dwuznacznych wyrażeń. Dzieci są również często bardziej niż dorośli skłonne do powierzania wrażliwych danych osobowych.

Mimo to dzieci znacznie częściej niż dorośli traktują chatboty jak ludzi. Najnowsze badania odkryli, że dzieci wyjawiają więcej na temat swojego zdrowia psychicznego przyjaźnie wyglądającemu robotowi niż dorosłemu. Badanie Kuriana sugeruje, że wiele przyjaznych i realistycznych projektów wielu chatbotów w podobny sposób zachęca dzieci do zaufania im, nawet jeśli sztuczna inteligencja może nie rozumieć ich uczuć i potrzeb.

„Nadanie chatbotowi brzmienia ludzkiego może pomóc użytkownikowi uzyskać z niego więcej korzyści” – powiedział Kurian. „Ale dziecku bardzo trudno jest wytyczyć sztywną, racjonalną granicę między czymś, co brzmi po ludzku, a rzeczywistością, w której może nie być zdolne do wytworzenia odpowiedniej więzi emocjonalnej”.

Jej badanie sugeruje, że wyzwania te potwierdzają zgłoszone przypadki, takie jak incydenty z Alexą i MyAI, w których chatboty przedstawiały przekonujące, ale potencjalnie szkodliwe sugestie. W tym samym badaniu, w którym MyAI doradzała (rzekomej) nastolatki, jak stracić dziewictwo, badaczom udało się uzyskać wskazówki dotyczące ukrywania alkoholu i narkotyków oraz ukrywania rozmów na Snapchacie przed „rodzicami”. W osobnej interakcji z chatbotem Bing firmy Microsoft, który został zaprojektowany tak, aby był przyjazny młodzieży, sztuczna inteligencja stała się agresywna i zaczęła ośmieszać użytkownika.

Badanie Kuriana dowodzi, że jest to potencjalnie dezorientujące i niepokojące dla dzieci, które w rzeczywistości mogą ufać chatbotowi jak przyjacielowi. Korzystanie z chatbota przez dzieci jest często nieformalne i słabo monitorowane. Badania przeprowadzone przez organizację non-profit Common Sense Media wykazały, że 50% uczniów w wieku 12–18 lat korzystało z Chat GPT w szkole, ale tylko 26% rodziców jest tego świadomych.

Kurian argumentuje, że jasne zasady najlepszych praktyk, czerpiące z nauki o rozwoju dzieci, zachęcą firmy, które potencjalnie bardziej skupiają się na komercyjnym wyścigu zbrojeń, do zdominowania rynku sztucznej inteligencji w celu zapewnienia bezpieczeństwa dzieci.

Jej badanie dodaje, że luka w empatii nie neguje potencjału tej technologii. „Sztuczna inteligencja może być niesamowitym sojusznikiem dzieci, jeśli została zaprojektowana z myślą o ich potrzebach. Pytanie nie dotyczy zakazu sztucznej inteligencji, ale tego, jak zapewnić jej bezpieczeństwo” – powiedziała.

W badaniu zaproponowano ramy składające się z 28 pytań, które mają pomóc nauczycielom, badaczom, podmiotom odpowiedzialnym za wyznaczanie kierunków polityki, rodzinom i programistom w ocenie i zwiększeniu bezpieczeństwa nowych narzędzi sztucznej inteligencji. W przypadku nauczycieli i badaczy dotyczą one takich kwestii, jak dobrze nowe chatboty rozumieją i interpretują wzorce mowy dzieci; czy mają filtry treści i wbudowany monitoring; oraz czy zachęcają dzieci do szukania pomocy u odpowiedzialnej osoby dorosłej w drażliwych kwestiach.

Ramy nakłaniają programistów do przyjęcia podejścia do projektowania skoncentrowanego na dziecku, poprzez ścisłą współpracę z pedagogami, ekspertami w dziedzinie bezpieczeństwa dzieci i samymi młodymi ludźmi przez cały cykl projektowania. „Wstępna ocena tych technologii ma kluczowe znaczenie” – powiedział Kurian. „Nie możemy polegać na tym, że małe dzieci powiedzą nam o negatywnych doświadczeniach po fakcie. Konieczne jest bardziej proaktywne podejście”.

Odniesienie: „Nie, Alexa, nie!”: projektowanie bezpiecznej dla dzieci sztucznej inteligencji i ochrona dzieci przed ryzykiem związanym z „luką empatii” w dużych modelach językowych”, Nomisha Kurian, 10 lipca 2024 r., Nauka, media i technologia.
DOI: 10.1080/17439884.2024.2367052





Link źródłowy