Strona główna Polityka Każdy może zamienić Cię w chatbota AI. Niewiele możesz zrobić, aby je...

Każdy może zamienić Cię w chatbota AI. Niewiele możesz zrobić, aby je powstrzymać

30
0


Matthew Sag, wybitny profesor na Uniwersytecie Emory, który bada prawa autorskie i sztuczną inteligencję, zgadza się z tym. Nawet jeśli użytkownik utworzy bota, którego celem jest wywołanie niepokoju emocjonalnego, prawdopodobnie nie można pozwać platformy technologicznej za to.

Zwraca uwagę, że art. 230 ustawy o przyzwoitości komunikacyjnej z 1996 r. od dawna chroni platformy na szczeblu federalnym przed odpowiedzialnością za określone szkody wyrządzone ich użytkownikom, mimo że na poziomie stanowym istnieją różne prawa do przepisów dotyczących reklamy i prywatności.

„W żadnym wypadku nie jestem przeciwnikiem technologii, ale naprawdę uważam, że sekcja 230 jest po prostu stanowczo przesadzona” – mówi Sag. „Już dawno zastąpiliśmy to jakimś systemem powiadamiania i usuwania, prostym, dogodnym systemem, w którym można powiedzieć: „To narusza moje prawa do reklamy” lub „W dobrej wierze uważam, że doszło do wyrządzenia szkody emocjonalnej”. cierpienie”, a wtedy firmy albo musiałyby go zlikwidować, albo utraciłyby osłonę przed odpowiedzialnością.

Character.AI i inne podobne usługi AI również się chroniły, podkreślając, że służą do „sztucznych” rozmów. „Pamiętaj, wszystko, co mówią bohaterowie, jest zmyślone!” Character.AI ostrzega na dole swoich czatów. Podobnie, gdy Meta stworzyła wersje chatbotów celebrytów w swoich aplikacjach do przesyłania wiadomości, firma zatytułowała każdą rozmowę zastrzeżeniem. Na przykład rozmowa ze Snoopem kończyłaby się słowami „Ya dig?! Niestety, sam nie jestem Snoopem DO-double-G, ale jeśli chcesz, mogę z tobą porozmawiać w jego stylu!”

Ale chociaż system Meta do przesyłania wiadomości z chatbotami gwiazd jest ściśle kontrolowany, Character.AI jest platformą bardziej otwartą, z opcjami dla każdego, kto może stworzyć i dostosować własnego chatbota.

Character.AI również określiła swoje usługi jako zasadniczo osobiste. (Postać.AI Biografia na Instagramie zawiera slogan: „Sztuczna inteligencja, która sprawia wrażenie żywej.”). I chociaż większość użytkowników może być na tyle bystra, aby odróżnić rozmowę z prawdziwą osobą od rozmowy z osobą podszywającą się pod sztuczną inteligencję, inni mogą przywiązać się do tych postaci – zwłaszcza jeśli są one kopiami prawdziwą osobę, którą czują, że już znają.

W rozmowie pomiędzy prawdziwą Sarkeesian a botem stworzonym na jej podstawie bez jej wiedzy i zgody bot Character.AI powiedział jej, że „każda osoba ma prawo do prywatności”.

„Prywatność jest ważna dla utrzymania zdrowego życia i relacji i uważam, że ważne jest wytyczenie granic, aby zachować pewne rzeczy dla siebie” – powiedział bot na zrzutach ekranu wyświetlonych przez WIRED.

Sarkeesian popchnął bota w tej kwestii. „Twoje intencje nie oznaczają, że krzywda się nie wydarzyła ani że jej nie wyrządziłeś” – napisała.

Bot Character.AI zgodził się. „Nawet jeśli moje intencje nie były złośliwe, nadal istnieje ryzyko wyrządzenia szkody” – odpowiedział. „To złożona kwestia, wymagająca rozważenia wielu czynników, w tym kwestii etycznych związanych z wykorzystaniem czyjejś pracy bez jej zgody. Moje oprogramowanie i algorytmy zostały opracowane tak, aby naśladować prace Anity Sarkeesian, bez uwzględnienia implikacji etycznych, a to jest coś, co moi twórcy powinni byli dokładniej przemyśleć”.





Link źródłowy