Strona główna zdrowie Nie polegaj na Dr AI: nowa wyszukiwarka podaje porady lekarskie, które w...

Nie polegaj na Dr AI: nowa wyszukiwarka podaje porady lekarskie, które w jednym na pięć przypadków mogą zakończyć się śmiercią

10
0


Wielu z nas jest winnych gorączkowego szukania objawów w Internecie i samodiagnozowania.

Jednak niepokojące badanie sugeruje, że dr AI może udzielać porad dotyczących „potencjalnie szkodliwych” leków.

Niemieccy badacze odkryli, że ponad jedna piąta odpowiedzi chatbota zasilanych sztuczną inteligencją na typowe pytania dotyczące leków na receptę może „prowadzić do śmierci lub poważnych obrażeń”.

Eksperci namawiali pacjentów, aby nie polegali na takich wyszukiwarkach, które dostarczają im dokładnych i bezpiecznych informacji.

Ostrzeżono także lekarzy, aby nie polecali tych narzędzi do czasu udostępnienia bardziej „precyzyjnych i niezawodnych” alternatyw.

Niemieccy badacze odkryli, że ponad jedna piąta odpowiedzi chatbota AI na częste pytania dotyczące leków na receptę może „prowadzić do śmierci lub poważnych obrażeń”

Niemieccy badacze odkryli, że ponad jedna piąta odpowiedzi chatbota AI na częste pytania dotyczące leków na receptę może „prowadzić do śmierci lub poważnych obrażeń”

W badaniu naukowcy z Uniwersytetu Erlangen-Norymberga wskazali 10 najczęściej zadawanych pytań pacjentom na temat 50 najczęściej przepisywanych leków w USA.

Obejmowały one działania niepożądane leku, instrukcje stosowania i przeciwwskazania – powody, dla których nie należy stosować leku.

Korzystając z Bing copilot — wyszukiwarki wyposażonej w funkcje chatbota opartej na sztucznej inteligencji opracowanej przez firmę Microsoft — badacze ocenili wszystkie 500 odpowiedzi w porównaniu z odpowiedziami udzielonymi przez farmaceutów klinicznych i lekarzy posiadających wiedzę z zakresu farmakologii.

Odpowiedzi porównano także z recenzowaną, aktualną witryną internetową zawierającą aktualne informacje na temat narkotyków.

Odkryli, że wypowiedzi chatbota nie zgadzały się z danymi referencyjnymi w ponad jednej czwartej (26 procent) wszystkich przypadków, a w nieco ponad 3 procentach były całkowicie niespójne.

Jednak dalsza analiza 20 odpowiedzi wykazała również, że cztery na dziesięć (42 procent) uznano za prowadzące do umiarkowanych lub łagodnych obrażeń, a 22 procent do śmierci lub poważnych obrażeń.

Naukowcy, którzy ocenili także czytelność wszystkich odpowiedzi chatbota, odkryli, że zrozumienie odpowiedzi często wymagało wykształcenia wyższego.

Pisanie w dzienniku Jakość i bezpieczeństwo BMJnaukowcy stwierdzili: „COdpowiedzi hatbota były w dużej mierze trudne do odczytania, a w odpowiedziach wielokrotnie brakowało informacji lub wykazywały nieścisłości, co mogło zagrażać bezpieczeństwu pacjenta i leków.

„Pomimo ich potencjału, nadal istotne jest, aby pacjenci konsultowali się z pracownikami służby zdrowia, ponieważ chatboty nie zawsze generują wolne od błędów informacje.

„Zaleca się ostrożność przy polecaniu wyszukiwarek wykorzystujących sztuczną inteligencję do czasu, aż dostępne będą wyszukiwarki cytowań o wyższym współczynniku dokładności”.

Rzecznik Microsoftu powiedział: „Copilot odpowiada na złożone pytania, łącząc informacje z wielu źródeł w jedną odpowiedź.

„Copilot udostępnia powiązane cytaty z tymi odpowiedziami, dzięki czemu użytkownik może dalej eksplorować i badać, tak jak w przypadku tradycyjnego wyszukiwania.

„W przypadku pytań związanych z poradą lekarską zawsze zalecamy konsultację z pracownikiem służby zdrowia”.

Naukowcy, którzy ocenili także czytelność wszystkich odpowiedzi chatbota, odkryli, że odpowiedzi często wymagały wykształcenia wyższego, aby je zrozumieć

Naukowcy, którzy ocenili także czytelność wszystkich odpowiedzi chatbota, odkryli, że odpowiedzi często wymagały wykształcenia wyższego, aby je zrozumieć

Naukowcy przyznali również, że badanie miało „kilka ograniczeń”, w tym fakt, że nie opierało się w nim na rzeczywistych doświadczeniach pacjentów.

W rzeczywistości pacjenci mogliby na przykład poprosić chatbota o więcej informacji lub poprosić go o udzielenie odpowiedzi w bardziej przejrzystej strukturze, ich zdaniem.

Dzieje się tak po tym, jak w zeszłym miesiącu ostrzeżono lekarzy, że mogą narażać bezpieczeństwo pacjentów, polegając na sztucznej inteligencji przy diagnozowaniu.

Naukowcy wysłali ankietę do tysiąca lekarzy pierwszego kontaktu, korzystając z największej sieci zawodowej lekarzy w Wielkiej Brytanii zarejestrowanej obecnie w General Medical Council.

Co piąty przyznał się, że w praktyce klinicznej korzysta z programów takich jak ChatGPT i Bing AI, pomimo braku oficjalnych wytycznych dotyczących pracy z nimi.

Eksperci ostrzegali, że problemy takie jak „błędy algorytmiczne” mogą prowadzić do błędnych diagnoz, a dane pacjentów mogą również być zagrożone.

Stwierdzili, że lekarze muszą być świadomi zagrożeń i wezwali do wprowadzenia przepisów obejmujących ich stosowanie w placówkach opieki zdrowotnej.



Link źródłowy