Komu ufamy, gdy decyzje wspiera sztuczna inteligencja? Inauguracja projektu badawczego Uniwersytetu Szczecińskiego

1 miesiąc temu 39

W dyskusji o sztucznej inteligencji coraz wyraźniej powraca pytanie nie o to, czy można zaufać technologii, lecz komu właściwie ufamy, kiedy technologia działa w naszym imieniu. To punkt wyjścia trzyletniego projektu badawczego prowadzonego na Uniwersytecie Szczecińskim, który analizuje psychospołeczne uwarunkowania decyzji podejmowanych z udziałem AI. Inaugurujące projekt spotkanie ekspertów, pokazało, że w centrum debaty nie stoi sama technologia, ale odpowiedzialność ludzi i instytucji, które kształtują sposób jej działania.

AI nie jest partnerem społecznym, nie ma intencji ani zdolności do ponoszenia odpowiedzialności. Jak zauważył prof. Andrzej Skrendo, prorektor ds. nauki Uniwersytetu Szczecińskiego, „nie pytamy przecież, czy możemy zaufać rowerowi albo kuchence mikrofalowej”. Pytanie o zaufanie w kontekście AI dotyczy więc nie technologii, lecz tych, którzy projektują modele, implementują je w praktyce i decydują, w jakich obszarach mają być stosowane.

Sztuczna inteligencja jest coraz częściej obecna w procesach decyzyjnych. W medycynie wspiera ocenę obrazów diagnostycznych – takich jak tomografia komputerowa, rezonans magnetyczny czy zdjęcia RTG – i pomaga identyfikować wzorce, które mogą umknąć ludzkiemu oku. W biznesie narzędzia oparte na AI analizują płynność finansową, monitorują anomalie w przepływach i sygnalizują ryzyko operacyjne. W administracji publicznej, także podatkowej, wykorzystuje się modele wspomagające klasyfikację wniosków, weryfikację danych i porządkowanie dużych zbiorów informacji. Ale wszędzie tam, gdzie wynik wygenerowany przez model wpływa na decyzje dotyczące zdrowia, pieniędzy czy bezpieczeństwa, pojawia się kluczowe pytanie: jak przebiega granica odpowiedzialności na styku między człowiekiem a technologią?

Prof. Marcin Słojewski, dyrektor ds. medycznych Uniwersyteckiego Szpitala Klinicznego nr 2 PUM w Szczecinie, zwracał uwagę, że narzędzia AI mogą przyspieszać analizę, ale nie przejmują ciężaru odpowiedzialności za diagnozę. Podkreślał, że automatyzacja części zadań daje lekarzom więcej czasu na rozmowę z pacjentem – i na wspólne podejmowanie decyzji terapeutycznych.

Z kolei przedstawiciel biznesu, Radosław Mroczka, właściciel firmy Efekt Flow i doradca finansowy, mówił o „cyfrowych współpracownikach” – narzędziach, które odciążają człowieka w zadaniach powtarzalnych, przy zachowaniu pełnej kontroli nad decyzją.

W obu środowiskach konkluzja jest ta sama: AI może usprawnić proces, ale nie usuwa konieczności weryfikacji i ostrożności.

Jednym z ważniejszych tematów, które pojawiły się w badaniach cytowanych w trakcie spotkania, jest kwestia tzw. halucynacji – sytuacji, w których model generuje nieprawdziwe informacje jako fakty. Nie wynika to z „charakteru” technologii, lecz ze sposobu, w jaki modele były trenowane.

W badaniu Why Language Models Hallucinate (OpenAI, 2025) pokazano, że tzw. halucynacje – czyli sytuacje, gdy model podaje nieprawdziwe informacje jako fakty, wynikają z tego, że dotychczasowe metody treningu i oceny nagradzały zgadywanie, a nie ostrożność czy przyznanie się do braku wiedzy. Ostrożność, zgłoszenie braku wiedzy czy wstrzymanie się od odpowiedzi były oceniane gorzej. W praktyce modele zaczęły zatem generować odpowiedź „za wszelką cenę”. To konsekwencja konstrukcji systemu – nie metaforyczna „pewność siebie” i nie cecha psychologiczna, bo AI nie posiada stanów mentalnych.

To oznacza, że źródło problemu nie leży w „charakterze” technologii, lecz w tym, jak ją projektujemy, testujemy i rozliczamy. Dlatego mówiąc o zaufaniu pytamy o to, jak projektujemy, testujemy i nadzorujemy narzędzia, które mogą wpływać na zdrowie, decyzje finansowe i procesy instytucjonalne. Innymi słowy koncentrujemy się na odpowiedzialności ludzi i instytucji: tych, którzy tworzą modele, dobierają dane, ustalają kryteria oceny i decydują, w jakich kontekstach można ich używać.

W dyskusji ważny głos należał do studentek Uniwersytetu Szczecińskiego – Dalii Aghmane i Aleksandry Kalinowskiej. Podkreślały one konieczność krytycznego korzystania z modeli językowych, zwracając uwagę na to, że AI potrafi upraszczać rzeczywistość i tworzyć złudzenie pewności tam, gdzie potrzebna jest weryfikacja. To jedna z bardziej interesujących obserwacji, bo młodzi użytkownicy często stereotypowo przedstawiani są jako bezkrytyczni użytkownicy technologii, pozbawieni ostrożności. Tymczasem to grupa, która dorastała w świecie cyfrowym i dobrze rozumie jego ograniczenia – być może właśnie dlatego szybciej dostrzega momenty, w których technologia wymaga weryfikacji.

W projekcie analizuję ten aspekt, wykorzystując opracowany przeze mnie wcześniej model MITrust, który porządkuje zaufanie w ujęciu instytucjonalnym. Pokazuję w nim, że decyzje podejmowane z udziałem AI przechodzą przez warstwy kompetencyjne użytkownika oraz wartości organizacyjne takie jak komunikacja, uczciwość, wiarygodność, współpraca, sprawiedliwość, lojalność czy życzliwość. Technologia może wesprzeć proces, ale to człowiek – ze swoją wiedzą i systemem wartości – decyduje, jak wykorzystać jej wynik.

Zaufanie do AI nie jest więc zaufaniem do maszyny, lecz do tego, że użytkownik potrafi ocenić wynik, rozumie jego ograniczenia i podejmuje ostateczną decyzję.

W dyskusji publicznej często pojawiają się dwa skrajne podejścia:

  • bezkrytyczna wiara w technologię,
  • strach przed nią, prowadzący do odrzucenia narzędzi AI.

Oba są błędne. Pierwsze odbiera człowiekowi sprawczość, drugie blokuje innowacje. Doświadczenia medycyny, biznesu i administracji pokazują, że bardziej odpowiedzialne podejście polega na łączeniu kompetencji użytkownika z możliwościami technologii. AI nie zastępuje wiedzy – jedynie ją powiększa, o ile człowiek zachowuje kontrolę.

W praktyce oznacza to trzy zasady:

  1. AI poprawia jakość decyzji, gdy działa na dobrze opisanych danych i zgodnie z jasnymi procedurami.
  2. AI obniża jakość decyzji, gdy używa się jej bez zrozumienia ograniczeń i bez weryfikacji wyników.
  3. Zaufanie w procesach opartych na AI dotyczy ludzi – czyli tego, czy organizacja posiada kompetencje, wartości i procedury potrzebne do odpowiedzialnego wykorzystania modelu.

To człowiek integruje dane, rozumie kontekst i ponosi odpowiedzialność.

Im bardziej AI będzie obecna w decyzjach – od diagnozy klinicznej po ocenę ryzyka finansowego – tym istotniejsze staje się pytanie: komu tak naprawdę ufamy, kiedy technologia pracuje u naszego boku?

Odpowiedź na to pytanie dotyczy ludzi, instytucji i systemów wartości, które określają, jakie decyzje uznajemy za odpowiedzialne.

Materiał powstał w oparciu o wystąpienia i wnioski ze spotkania ekspertów inaugurującego projekt „Analiza zaufania do sztucznej inteligencji w kontekście psychospołecznych postaw w obszarze nauki i biznesu w Polsce’, finansowany przez Ministra Nauki i Szkolnictwa Wyższego.

Autor: Dr hab. Monika Różycka, kierownik projektu.

© ℗ Materiał chroniony prawem autorskim. Wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Wprost.
Regulamin i warunki licencjonowania materiałów prasowych.

Przeczytaj źródło