Naukowcy ze Stanford University School of Medicine w Kalifornii ostrzegają przed skutkami zastosowania mechanizmów sztucznej inteligencji w opiece medycznej.
Jak podaje „The New England Journal of Medicine”, wykorzystanie sztucznej inteligencji w medycynie, zwłaszcza na szeroką skalę, wiąże się z licznymi problemami. Dane zawarte do tworzenia algorytmów mogą zawierać błędy, które w efekcie końcowym będą przekładały się na nieprawidłowe zalecenia kliniczne.
Zastosowanie sztucznej inteligencji zmienia tradycyjny układ w relacji lekarz-pacjent. Dochodzi do pojawienia się „trzeciej osoby”, a w konsekwencji do spotkania pacjenta już jedynie z systemem opieki zdrowotnej. Następuje zmiana dynamiki relacji oraz jej poufności.
Nie można pominąć ludzkiego aspektu w ocenie danych. Uzyskane informacje muszą być zawsze podporządkowane doświadczeniu klinicznemu. „Rzeczą, którą możemy uczynić, a której maszyny nie potrafią, jest spojrzenie z boku na nasze pomysły i krytyczna ich ocena” – stwierdza Danton Char, adiunkt anestezjologii, medycyny okołooperacyjnej i przeciwbólowej, który prowadzi badania finansowane przez National Institutes of Health dotyczące konsekwencji etycznych i społecznych rozszerzonych badań genetycznych poważnie chorych dzieci. „Społeczeństwo bardzo zmęczyło się szukaniem szybkich odpowiedzi” – dodaje Char. Potrzebna jest ostrożność i refleksja nad wykorzystaniem inteligentnych układów w medycynie.
Istnieje potrzeba wnikliwego poznania przez lekarzy metod tworzenia modeli statystycznych, ich funkcjonowania, a także racjonalnej oceny źródła danych statystycznych. Szczegółowe poznanie procesu zapobiega bezkrytycznemu przyjmowaniu informacji oraz wyciąganiu błędnych wniosków dotyczących opieki medycznej.
Tłum. i oprac. Zuzanna Podraza
Źródło: www.genethique.org