- Czy padłeś ofiarą lekarzy używających sztucznej inteligencji do komunikacji z Tobą? Wyślij e-mail na adres [email protected]
Według grupy medycznej brytyjscy lekarze wykorzystują sztuczną inteligencję do reagowania na skargi pacjentów, aby ułatwić im pracę.
Raport Związku Obrony Medycznej (MDU), który oferuje lekarzom porady prawne, ostrzega, że „niektórzy lekarze zwracają się do programów sztucznej inteligencji, takich jak ChatGPT, aby opracowywać dla nich odpowiedzi na skargi”.
Organ twierdzi, że lekarzy „skusiła” możliwość „ułatwienia codziennych zadań”.
Może to jednak nie tylko stwarzać ryzyko przekazania wrażliwych informacji o pacjencie sztucznej inteligencji, ale może również prowadzić do nieścisłości i dalszego zdenerwowania pacjentów, ostrzega MDU.
Grupa powiedziała MailOnline, że zaobserwowała „niewielką liczbę przypadków”, w których lekarze używali sztucznej inteligencji w ten sposób, i wydawała swoim członkom ogólne „proaktywne” ostrzeżenie.
Raport Unii Obrony Medycznej (MDU) ostrzega, że „niektórzy lekarze zwracają się do programów sztucznej inteligencji, takich jak ChatGPT, aby opracowywać dla nich odpowiedzi na skargi”.
Stwierdzili, że lekarze powinni szczególnie zwracać uwagę na to, że sztuczna inteligencja może składać „fałszywe przeprosiny”, gdy zwracają się do skargi w sposób ogólny, np. „Przykro mi, że uważa Pan, że Pana opieka była kiepska”, zamiast odnosić się do konkretnych kwestii podnoszonych przez pacjenta.
Doktor Ellie Mein, doradca medyczno-prawny MDU, stwierdziła, że zrozumiałe jest, dlaczego lekarze, np. lekarze pierwszego kontaktu, zwracają się do sztucznej inteligencji jako potencjalnego narzędzia oszczędzającego czas.
„W obliczu zwiększonej liczby skarg i ogromnej presji na służbę zdrowia naturalne jest, że pracownicy służby zdrowia chcą znaleźć sposoby na mądrzejszą pracę” – stwierdziła.
„Technologię sztucznej inteligencji wykorzystuje się na wiele sposobów w celu poprawy jakości opieki nad pacjentem, np. w badaniach przesiewowych.
Jednak w odpowiedzi na obawy pacjentów nic nie zastąpi ludzkiego dotyku.
Powiedziała, że MDU zna przypadki, w których pacjenci dowiedzieli się, że ich lekarz wykorzystał sztuczną inteligencję, aby odpowiedzieć na ich skargę.
Dodała, że przed użyciem takich narzędzi lekarze powinni rozważyć, jak by się czuli, gdyby pacjent się z nimi skonfrontował.
„Zdarzały się przypadki, gdy odbiorcy, którzy byli podejrzliwi wobec brzmienia odpowiedzi na skargę, byli w stanie odtworzyć ten sam tekst, prosząc AI o sporządzenie podobnego listu” – stwierdziła.
„Czy czułbyś się komfortowo w takiej sytuacji i czy pacjent miałby poczucie, że poważnie potraktowałeś jego skargę?”.
Dr Mein dodała, że chociaż wykorzystanie sztucznej inteligencji jako zachęty do rozpoczęcia rozpatrywania skargi jest dopuszczalne, należy jednak uniknąć szeregu pułapek i nie należy polegać na dostarczonej odpowiedzi.
Powiedziała, że lekarze muszą uważać na nieścisłości lub błędy ortograficzne, które mogą wynikać z działania wielu narzędzi sztucznej inteligencji. Amerykańskie korzenie, które mogą wyraźnie zdradzić, że lekarz nie odpowiedział autentycznie na skargę.
Ponadto lekarze w żadnym wypadku nie powinni przekazywać sztucznej inteligencji poufnych informacji medycznych dotyczących pacjenta, ponieważ mogłoby to stanowić naruszenie brytyjskich przepisów o ochronie danych.
Dr Mein ostrzegł również, że w odpowiedziach wspomaganych przez sztuczną inteligencję mogą również zostać pominięte informacje, które lekarz ma obowiązek przekazać, np. z kim pacjent może się skontaktować, np. z organem regulacyjnym, jeśli uważa, że jego skarga nie została rozpatrzona.
Orzeczenie to nadeszło, gdy liczba oficjalnych skarg pacjentów kierowanych do lekarzy NHS osiągnęła rekordowy poziom.
Według najnowszych dostępnych danych w latach 2022–2023 do NHS wpłynęło prawie 229 500 pisemnych skarg.
Oznacza to wzrost o 41% w porównaniu z 162 000 odnotowanymi dekadę wcześniej.
Spośród 229 500 skarg pacjentów zarejestrowanych w latach 2022–2023 większość (około 126 000) została skierowana do lekarzy pierwszego kontaktu lub dentystów NHS.