Wyszukiwanie na stronach internetowych diagnoz dotyczących zdrowia, czyli korzystanie z usług „doktora Google”, niesie ze sobą poważne ryzyko, że zamiast pomóc, tylko sobie zaszkodzimy. Niestety, jak wykazało śledztwo dziennikarzy Guardiana, nowe narzędzie w wyszukiwarce Google, czyli Przegląd od AI, może powodować jeszcze większe szkody.
Dalsza część tekstu pod wideo
Zasilana Gemini funkcja Przegląd od AI, która wyświetla generowane przez sztuczną inteligencję streszczenia na samej górze wyników wyszukiwania to pomocne narzędzie, które jednak zaskakująco często podaje błędne lub nieprecyzyjne wyniki. W tym także – porady lekarskie, co już zaczyna być niebezpieczne dla zdrowia i życia.
Dziennikarze Guardiana zaczęli badać sprawę po tym, gdy zauważyli, w jaki sposób AI Google’a interpretuje wyniki badań krwi. Wpisanie frazy „jaki jest prawidłowy zakres prób wątrobowych” skutkowało wygenerowaniem przez AI ściany liczb bez żadnego kontekstu. Algorytm całkowicie zignorował ważne czynniki medyczne, takie jak wiek, płeć, pochodzenie etniczne czy narodowość pacjenta.
Eksperci medyczni, którzy przeanalizowali te wyniki, określili je jako skrajnie niebezpieczne i alarmujące. Ich zdaniem tak podane dane mogą wprowadzić w błąd osoby z poważnymi chorobami wątroby. Pacjenci, widząc wygenerowane przez AI normy, mogą błędnie uznać, że są zdrowi, i zrezygnować z wizyty u lekarza, podczas gdy w rzeczywistości ich życie jest zagrożone.
W odpowiedzi na te doniesienia Google usunął podsumowania AI dla konkretnych zapytań dotyczących testów wątrobowych. Rzecznik firmy stwierdził lakonicznie: „Nie komentujemy poszczególnych usunięć w wyszukiwarce”, dodając jedynie, że firma podejmuje działania zgodnie ze swoimi zasadami, gdy AI pomija istotny kontekst.
Eksperci zwracają jednak uwagę, że jest to działanie doraźne. Śledztwo wykazało, że wystarczyło nieznacznie zmienić zapytanie, np. wpisując „zakres referencyjny lft” (od Liver Function Tests – próby wątrobowej) zamiast pełnego zdania, aby Przegląd od AI znów zaczął wyświetlać wprowadzające w błąd podsumowania.
Co gorsza, problem nie dotyczy tylko wątroby. Również w innych przypadkach, wykrytych przez Guardiana, Przegląd od AI udzielał porad, które eksperci określili jako całkowicie błędne i niebezpieczne. Przykładowo, w przypadku raka trzustki AI podsuwało zalecenia, które mogły zwiększać ryzyko śmierci pacjentów z powodu tej choroby.
Google broni się, twierdząc, że podsumowania w Przeglądzie od AI pojawiają się tylko wtedy, gdy system ma wysoką pewność co do jakości odpowiedzi. Ostatnie wpadki pokazują jednak, że Google ma tu jeszcze sporo do nadrobienia, a my powinniśmy jednak z dużym sceptycyzmem podchodzić do porad doktora Gemini.








English (US) ·
Polish (PL) ·