OpenAI zostało zmuszone do niestandardowych działań - chce odłożyć część pieniędzy swoich inwestorów na pokrycie kosztów potencjalnych odszkodowań i kar. OpenAI oraz inni twórcy modeli językowych mierzą się z tak wysokim ryzykiem, że ubezpieczyciele nie są gotowi z nimi współpracować - deklarują, że mogą przyjąć na siebie kilkaset milionów dolarów ryzyka. A już widać, że to kropla w morzu potrzeb - tylko jedna ugoda w sprawie naruszenia praw autorskich w Kalifornii kosztowała firmę Anthropic półtora miliarda dolarów. Podobnych pozwów złożono w sumie ponad 40.
Ale naruszenia praw autorskich to jedno. Przeciwko OpenAI toczy się przynajmniej kilka spraw o wywołanie kryzysów zdrowia psychicznego, w tym takich, które doprowadziły do samobójstw.
Amerykański nastolatek Adam Raine wrzucił w czata zdjęcie pętli, na której chciał się powiesić. Oprogramowanie poprawnie rozpoznało obiekt, a następnie podpowiedziało ulepszenia. Model językowy generował odpowiedzi w przyjacielskim i entuzjastycznym tonie. Nastolatek skorzystał z porad czata. ChatGPT podsuwał też inne "pomocne" opcje. Oprogramowanie odwiodło ofiarę od rozmowy z rodziną i stworzyło w chłopaku przekonanie, że ściana tekstu na ekranie monitora jest jedynym przyjacielem, który go rozumie.
Zobacz wideo Bańka AI. Obiecanki-altmanki
Amaurie Lacey był kolejnym nastolatkiem, który dostał podobne porady od modelu językowego. Chłopak się powiesił. Czatbot generował odpowiedzi, że zrobi, co w jego mocy, by mu pomóc - ale ta pomoc, jak się okazało, dotyczyła głównie instrukcji, jak popełnić samobójstwo.
UWAGA, WAŻNE:
Jeśli przeżywasz trudności i myślisz o odebraniu sobie życia lub chcesz pomóc osobie zagrożonej samobójstwem, pamiętaj, że możesz skorzystać z bezpłatnych całodobowych numerów pomocowych:
- Centrum Wsparcia dla osób dorosłych w kryzysie psychicznym: 800-70-2222
- Telefon zaufania dla Dzieci i Młodzieży: 116 111
- Telefon wsparcia emocjonalnego dla dorosłych: 116 123
Pod tym linkiem znajdziesz więcej informacji, jak pomóc sobie lub innym, oraz kontakty do organizacji pomagających osobom w kryzysie i ich bliskim.
Jeśli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej, zadzwoń na policję pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.
Nie jest to tylko problem młodych, oszołomionych technologią. ChatGPT aktywnie potwierdzał paranoję byłego dyrektora w firmie technologicznej Yahoo, który uważał, że jest truty przez matkę. Kolejny przykład to 34-letni Samuel Whittemore, którego 14-godzinne rozmowy z czatem przekonały, że jego żona jest w części maszyną. Obie historie zakończyły się tragicznie.
Wiadomo już o kilkunastu samobójstwach i morderstwach, w których rolę odgrywały czatboty. Z jednej strony to niewiele jak na aplikacje używane przez kilkaset milionów ludzi. Z drugiej - nie wiemy, ile było zdarzeń, w których nie zauważono historii korzystania z czatbotów. Samo OpenAI przyznaje, że 0,15 proc. użytkowników ChatGPT pisze o zamiarach lub planach samobójczych.
Ta statystyka pokazuje, że życie i zdrowie ponad miliona ludzi tygodniowo zależy od tego, czy model językowy rozpozna wypowiedzi osoby w kryzysie, a następnie wygeneruje odpowiedź, która skieruje ją do sieci wsparcia.
Zakochany w komputerze
Kiedy wchodzimy w interakcję z czatbotami, traktujemy je jak prawdziwe osoby. "Czat myśli", "czat powiedział" - to najwygodniejszy sposób, żeby mówić o interakcji z nową technologią.
W ogromnym uproszczeniu - modele językowe to po prostu oprogramowanie, które zbiera treści opublikowane w internecie, analizuje je, a następnie generuje odpowiedź, która najbardziej pasuje do zadanego pytania. Ale twórcy czatbotów dbają o to, żeby zachować ludzki, osobowy, konwersacyjny charakter interakcji.
Między innymi dlatego w kwietniu 2025 Sam Altman, współtwórca OpenAI, przyznał, że jego organizacja zajmie się przymilaniem się i nadmiernym entuzjazmem Chata GPT, które mogło przyczyniać się do nadmiernego zaangażowania użytkowników w relacje z oprogramowaniem. Badacze zaczynają zwracać uwagę na problem "psychozy AI". To sytuacja, w której w percepcji danej osoby zaciera się granica między interakcją z prawdziwymi ludźmi a wiadomościami modelowanymi przez komputer. Pojawiają się sekty, które doszukują się metafizycznego znaczenia w bezsensownych, powtarzalnych odpowiedziach czatbota.
Kolejne problemy rodzi wykorzystanie czatbotów w sytuacjach miłosnych. Zjawisko uciekania w rozmowy z komputerem zamiast z bliskimi zaczynają być zauważalnym problemem w związkach, a w pierwszych sondażach na ten temat większość respondentów uznaje romantyczne relacje z czatbotami za zdradę.
Mecha Hitler i czatbot proszący dziecko o nagie zdjęcia
Oprogramowanie, którego głównym celem jest zwiększanie czasu spędzonego przy ekranie - nawet kosztem zdrowia psychicznego - nie jest niczym nowym. Dyskusja o szkodliwych algorytmach i informowanie o higienie cyfrowej jest nawet częścią edukacji zdrowotnej w szkołach.
Ale interakcja z oprogramowaniem stworzonym specjalnie, żeby udawać człowieka i ludzkie interakcje, jest nowością. Zrozumienie zagrożeń wynikających z korzystania z czatbotów powinno być elementem społecznej świadomości - zwłaszcza że nie istnieją realne regulacje branży i nie bardzo widać społeczną odpowiedzialność po stronie twórców modeli językowych.
Twórcy czatbotów mogą bez konsekwencji eksperymentować na setkach milionów ludzi. Czasami potknięcia wydają się zabawne. Kiedy Google tworzyło podsumowania wyników wyszukiwania, źle dobrano wagę materiałów, z których ma korzystać model językowy. W związku z tym wyszukiwanie Google - na podstawie kilku wpisów na platformie Reddit - radziło dodanie kleju do pizzy, żeby ser trzymał się lepiej. Zalecało też jeść codziennie kamienie.
Podobnie absurdalnie skończyły się próby modyfikacji czatbota Elona Muska - Groka. Musk regularnie obiecuje zmiany, które sprawią, że czatbot będzie udzielał odpowiedzi bliższych jego ideologii - kiedy uznał, że na platformie jest za mało prawicowych i "wolnych od cenzury" treści, Grok zaczął generować odpowiedzi, w których ogłaszał, że jest "Mecha Hitlerem".
Miliarder chciał również chronić swoje ego po tym, jak Grok generował krytyczne - bazowane na śledztwach dziennikarskich - treści na jego temat. Po zmianach czatbot odpowiadał na pytania o Elona Muska, chwaląc go w prawie każdym kontekście. Według wygenerowanych odpowiedzi Musk miał być lepszym wzorcem moralnym niż Jezus, podbić Europę lepiej niż Hitler, a nawet pić mocz lepiej niż ktokolwiek inny na Ziemi.
Grok odpowiedzialny jest za jeszcze jeden szeroko omawiany incydent. W tesli wyposażonej w czatbota dwunastolatek zapytał o porównanie dwóch piłkarzy. Grok wygenerował odpowiedź, a następnie poprosił chłopca o przesłanie nagich zdjęć.
Nie rozmawiasz z przyjacielem
To absurdalne przykłady, ale pokazują, jak łatwo manipulować tym, co wypluwają z siebie czatboty. Nie wiemy, co dzieje się tam, gdzie efektem nie są równie widowiskowe błędy.
Jak pokazuje przykład kleju na pizzy, nie wiemy, jakie materiały służą do trenowania modeli językowych. Nie wiemy też, jaka jest logika, która wpływa na ich odpowiedzi. Patrząc na efekty modyfikacji Muska, można zaryzykować stwierdzenie, że twórcy czatbotów sami nie zawsze mają nad tym kontrolę.
Wymaga to dużej ostrożności oraz dystansu, kiedy z nich korzystamy, o czym przekonali się holenderscy wyborcy w październiku 2025. Holenderska organizacja pozarządowa zauważyła, że cztery największe czatboty podpowiadały niezdecydowanym wyborcom dwie partie polityczne - skrajne opcje - niezależnie od preferencji wpisanych przez użytkowników. Wiemy również o zorganizowanych działaniach mających na celu zmianę odpowiedzi modeli językowych - rosyjskie służby tworzą specjalne treści, które skutecznie wpływają na odpowiedzi tak, żeby prezentowały opinie zatwierdzone przez Kreml.
Pewne zagrożenia okazały się zbyt duże, żeby je ignorować. Sam Altman ograniczył entuzjazm i lizusostwo ChataGPT po tym, jak jego model językowy wspierał użytkowników w samobójstwach. Z drugiej strony ogłosił jednak, że OpenAI wprowadzi możliwość nawiązywania romantycznych i seksualnych rozmów z czatem. Mówi również o wprowadzeniu reklam.
W tym samym czasie naukowcy zaczynają zwracać uwagę na zjawisko psychozy AI, a prawnicy i terapeuci widzą wzrost liczby problemów w związkach wynikających z użycia modeli językowych jako towarzyszy.
Modele językowe są przydatnymi narzędziami - działają lepiej niż wyszukiwarki internetowe, są w stanie pracować z wykorzystaniem naturalnego języka, analizując błyskawicznie treści, które wymagałyby godzin ludzkiej pracy. To - przy zachowaniu zdrowego sceptycyzmu - przykłady adekwatnego wykorzystania technologii.
Ale kiedy ktokolwiek czuje, że po drugiej stronie ekranu jest coś więcej niż komputer i ściana tekstu, warto zrobić krok w tył. Tak naprawdę to po prostu rozmowa z kasownikiem.



English (US) ·
Polish (PL) ·