Badanie ostrzega, że lekarze rodzinni ryzykują bezpieczeństwo pacjentów, polegając na sztucznej inteligencji przy diagnozowaniu.
Jeden na pięciu lekarzy pierwszego kontaktu przyznał się, że podczas praktyki klinicznej korzysta z programów takich jak ChatGPT i Bing AI, mimo że nie ma oficjalnych wskazówek, jak z nimi pracować.
Eksperci ostrzegali, że problemy takie jak „błędy algorytmiczne” mogą prowadzić do błędnych diagnoz, a dane pacjentów mogą również być zagrożone. Stwierdzili, że lekarze muszą być świadomi zagrożeń i wezwali do wprowadzenia przepisów obejmujących ich stosowanie w placówkach opieki zdrowotnej.
Naukowcy wysłali ankietę do tysiąca lekarzy pierwszego kontaktu, korzystając z największej sieci zawodowej lekarzy w Wielkiej Brytanii zarejestrowanej obecnie w General Medical Council.
Lekarzy zapytano, czy kiedykolwiek stosowali którykolwiek z poniższych środków w jakimkolwiek aspekcie swojej praktyki klinicznej: ChatGPT; sztuczna inteligencja Binga; Bard Google; lub „Inne”. Ponad połowa respondentów (54 proc.) to osoby w wieku 46 lat i starsze.
Badanie wykazało, że jeden na pięciu lekarzy pierwszego kontaktu korzysta ze sztucznej inteligencji do diagnozowania (zdjęcie pliku)
Jedna piąta (20%) zgłosiła stosowanie generatywnych narzędzi AI w swojej praktyce klinicznej.
Spośród nich prawie jedna trzecia (29%) zgłosiła używanie tych narzędzi do generowania dokumentacji po wizytach pacjentów.
Jak wynika z ustaleń opublikowanych w BMJ, podobna liczba (28 procent) stwierdziła, że wykorzystała je do postawienia diagnozy różnicowej.
Jedna czwarta (25 procent) stwierdziła, że korzystała z tych narzędzi, aby sugerować opcje leczenia, takie jak potencjalne leki lub skierowania.
Badacze – w tym naukowcy z Uniwersytetu w Uppsali w Szwecji i Uniwersytetu w Zurychu – stwierdzili, że chociaż sztuczna inteligencja może być przydatna do wspomagania dokumentacji, jest „skłonna do tworzenia błędnych informacji”.
Piszą: „Ostrzegamy, że narzędzia te mają ograniczenia, ponieważ mogą zawierać subtelne błędy i uprzedzenia.
„Mogą również narazić na ryzyko wyrządzenia szkody i naruszyć prywatność pacjentów, ponieważ nie jest jasne, w jaki sposób firmy internetowe stojące za generatywną sztuczną inteligencją wykorzystują gromadzone przez siebie informacje”.
Chociaż chatboty są coraz częściej celem działań regulacyjnych, „pozostaje niejasne”, w jaki sposób ustawodawstwo będzie się w praktyce krzyżować z tymi narzędziami w praktyce klinicznej – dodali.
Naukowcy twierdzą, że sztuczna inteligencja, choć pomocna przy dokumentowaniu, jest „skłonna do tworzenia błędnych informacji” (zdjęcie pliku)
Stwierdzają, że lekarze i stażyści medyczni muszą być w pełni informowani o zaletach i wadach sztucznej inteligencji, zwłaszcza ze względu na „nieodłączne ryzyko”, jakie ze sobą niesie.
Profesor Kamila Hawthorne, przewodnicząca Royal College of GPs, zgodziła się, że stosowanie sztucznej inteligencji „nie jest pozbawione potencjalnego ryzyka” i wezwała do ścisłego uregulowania jej wdrażania w praktyce ogólnej, aby zagwarantować bezpieczeństwo pacjentów i bezpieczeństwo ich danych.
Powiedziała: „Technologia zawsze będzie musiała współdziałać z pracą lekarzy i innych pracowników służby zdrowia i ją uzupełniać, i nigdy nie może być postrzegana jako substytut wiedzy specjalistycznej wykwalifikowanego pracownika służby zdrowia.
„Bez wątpienia istnieje potencjał stosowania generatywnej sztucznej inteligencji w praktyce ogólnej, jednak w interesie bezpieczeństwa pacjentów ważne jest, aby była ona starannie wdrażana i ściśle regulowana”.