Ale X jasno pokazuje również, że na użytkowniku spoczywa obowiązek oceny dokładności sztucznej inteligencji. „To jest wczesna wersja Groka” – czytamy na stronie pomocy xAI. Dlatego chatbot może „z pewnością podawać informacje niezgodne z faktami, błędnie streszczać lub pomijać kontekst” – ostrzega xAI.
„Zachęcamy do niezależnej weryfikacji wszelkich otrzymanych informacji” – dodaje xAI. „Proszę nie udostępniać danych osobowych ani żadnych innych wrażliwe i poufne informacje w twoich rozmowach z Grokiem.
Zbieranie danych Groka
Kolejnym obszarem budzącym obawy są gromadzone ogromne ilości danych — zwłaszcza, że automatycznie włączasz opcję udostępniania danych X Grokowi, niezależnie od tego, czy korzystasz z asystenta AI, czy nie.
Grok xAI Pomoc Strona środkowa opisuje, w jaki sposób xAI „może wykorzystywać Twoje posty na X, a także interakcje użytkowników, dane wejściowe i wyniki z Grokiem do celów szkoleniowych i dostrajania”.
Strategia szkoleniowa Groka niesie ze sobą „znaczące implikacje dla prywatności” – mówi Marijus Briedis, dyrektor ds. technologii w NordVPN. Oprócz „zdolności narzędzia AI do uzyskiwania dostępu do potencjalnie prywatnych lub wrażliwych informacji i ich analizowania” – dodaje Briedis, istnieją dodatkowe obawy „biorąc pod uwagę zdolność sztucznej inteligencji do generowania obrazów i treści przy minimalnym moderowaniu”.
Chociaż Grok-1 został przeszkolony w oparciu o „publicznie dostępne dane do trzeciego kwartału 2023 r.”, ale nie został „wstępnie przeszkolony w zakresie danych X (w tym publicznych postów X)” – według firmy, Grok-2 został wyraźnie przeszkolony we wszystkich „stanowiskach , interakcje, dane wejściowe i wyniki” użytkowników X, przy czym wszyscy są automatycznie włączani, mówi Angus Allan, starszy menedżer produktu w CreateFuture, cyfrowej firmie konsultingowej specjalizującej się we wdrażaniu sztucznej inteligencji.
Ogólne rozporządzenie o ochronie danych UE (RODO) wyraźnie mówi o uzyskiwaniu zgody na wykorzystanie danych osobowych. W tym przypadku xAI mogło „zignorować to w przypadku Groka” – mówi Allan.
Doprowadziło to do wywarcia przez organy regulacyjne w UE nacisków na X zawiesić treningi na użytkowników w UE w ciągu kilku dni od wystrzelenia Grok-2 w zeszłym miesiącu.
Nieprzestrzeganie przepisów dotyczących prywatności użytkowników może skutkować kontrolą regulacyjną w innych krajach. Chociaż w USA nie ma podobnego reżimu, Federalna Komisja Handlu nałożyła już wcześniej karę na Twittera za nieprzestrzeganie preferencji użytkowników w zakresie prywatności – podkreśla Allan.
Rezygnacja
Jednym ze sposobów zapobiegania wykorzystywaniu Twoich postów do szkolenia Groka jest ustawienie konta jako prywatnego. Możesz także użyć Ustawienia prywatności X zrezygnować z przyszłych szkoleń modelarskich.
W tym celu wybierz Prywatność i bezpieczeństwo > Udostępnianie danych i personalizacja > Grok. W Udostępnianie danychodznacz opcję „Pozwól, aby Twoje posty, a także interakcje, dane wejściowe i wyniki z Grokiem były wykorzystywane do szkolenia i dostrajania”.
Nawet jeśli nie korzystasz już z X, nadal warto się zalogować i zrezygnować. X może wykorzystać wszystkie Twoje wcześniejsze posty – w tym obrazy – do szkolenia przyszłych modeli, chyba że wyraźnie zabronisz mu tego, ostrzega Allan.
XAI twierdzi, że możliwe jest usunięcie całej historii rozmów na raz. Usunięte rozmowy są usuwane z systemów w ciągu 30 dni, chyba że firma musi je zachować ze względów bezpieczeństwa lub prawnych.
Nikt nie wie, jak Grok będzie ewoluował, ale sądząc po jego dotychczasowych działaniach, warto monitorować asystenta AI Muska. Aby zapewnić bezpieczeństwo swoich danych, zwracaj uwagę na treści, które udostępniasz w serwisie X i bądź na bieżąco z wszelkimi aktualizacjami polityki prywatności lub warunków świadczenia usług, mówi Briedis. „Korzystanie z tych ustawień pozwala lepiej kontrolować sposób, w jaki Twoje dane są przetwarzane i potencjalnie wykorzystywane przez technologie takie jak Grok”.