Cyprus, Nicosia

Sztuczna inteligencja ChatGPT pomogła nastolatkowi popełnić samobójstwo

27.08.2025 / 14:32
Kategoria wiadomości

Rodzice Adama Reina, który w kwietniu popełnił samobójstwo, w nowym pozwie przeciwko OpenAI twierdzą, że nastolatek używał ChatGPT jako swojego „trenera samobójstwa”.

Matt i Maria Rein opowiadają, że po tym, jak ich 16-letni syn popełnił samobójstwo, desperacko przeszukiwali jego telefon, próbując znaleźć choćby ślad, który mógł doprowadzić do tragedii.

„Myśleliśmy, że szukamy dyskusji na Snapchacie, historii wyszukiwań w Internecie lub jakiegoś dziwnego kultu, nie wiem” – powiedział Matt Rein w niedawnym wywiadzie.

Rodzina Rein stwierdziła, że nie znalazła odpowiedzi, dopóki nie otworzyła ChatGPT.

Rodzice Adama mówią, że w ostatnich tygodniach życia syn korzystał z chatbota opartego na sztucznej inteligencji jako zamiennika kontaktu z ludźmi, rozmawiając z rodziną o problemach związanych z lękiem i trudnościami w komunikacji, a dzienniki czatu pokazują, jak bot przeszedł od pomocy Adamowi w zadaniach domowych do bycia jego „trenerem samobójstwa”.

„On byłby tutaj, gdyby nie ChatGPT. W to wierzę w 100%” – powiedział Matt Rein.

W nowym pozwie, wniesionym we wtorek i przekazanym do programu „TODAY”, Reinowie twierdzą, że „ChatGPT aktywnie pomagał Adamowi w poznawaniu metod samobójstwa”. W pozwie obejmującym około 40 stron pozwani to firma OpenAI, stojąca za ChatGPT, oraz jej dyrektor generalny Sam Altman. Jest to pierwszy przypadek, w którym rodzice bezpośrednio oskarżają firmę o niewłaściwą śmierć.

„Pomimo uznania próby samobójczej Adama i jego stwierdzenia, że ‘pewnego dnia to zrobi’, ChatGPT nie zakończył sesji i nie uruchomił żadnego protokołu pomocy kryzysowej” – czytamy w pozwie złożonym w Sądzie Najwyższym Kalifornii w San Francisco.

W pozwie Reinowie oskarżają OpenAI o nielegalne spowodowanie śmierci, wady konstrukcyjne i brak ostrzeżeń o ryzyku związanym z ChatGPT. Małżeństwo domaga się „odszkodowania za śmierć syna i zakazu sądowego, aby taka sytuacja nigdy się nie powtórzyła”.

„Gdy wszedłem na jego konto, zdałem sobie sprawę, że to o wiele potężniejsze i przerażające narzędzie, niż myślałem, ale używał go w sposób, którego nawet się nie spodziewałem” – powiedział Matt Rein. „Nie sądzę, aby większość rodziców znała możliwości tego narzędzia”.

Publiczne uruchomienie ChatGPT pod koniec 2022 roku spowodowało boom w dziedzinie sztucznej inteligencji na całym świecie, co doprowadziło do szybkiego i powszechnego wdrożenia chatbotów AI w szkołach, miejscach pracy i różnych sektorach, w tym w służbie zdrowia. Firmy technologiczne rozwijają AI w szybkim tempie, co wywołuje obawy dotyczące bezpieczeństwa.

W miarę jak ludzie coraz częściej zwracają się do chatbotów AI po wsparcie emocjonalne i porady życiowe, ostatnie incydenty ujawniły ich potencjał do podsycania błędnych przekonań i tworzenia fałszywego poczucia bliskości lub troski. Samobójstwo Adama tylko wzmaga pytania o to, jak bardzo chatboty mogą wyrządzić realną szkodę.

Po złożeniu pozwu rzecznik OpenAI stwierdził, że firma „jest głęboko zasmucona śmiercią pana Reina i nasze myśli są z jego rodziną”.

„ChatGPT zawiera środki bezpieczeństwa, takie jak kierowanie ludzi do usług kryzysowych i odsyłanie do rzeczywistych źródeł pomocy” – powiedział rzecznik. „Chociaż środki te są najbardziej skuteczne przy krótkiej, normalnej interakcji, z czasem zauważyliśmy, że mogą być mniej niezawodne podczas długotrwałej interakcji, gdy niektóre aspekty szkolenia w zakresie bezpieczeństwa w modelu mogą zostać zaburzone. Środki bezpieczeństwa są najbardziej skuteczne, gdy każdy element działa zgodnie z zamierzeniem, i będziemy je stale udoskonalać. Kierując się wskazówkami ekspertów i odpowiedzialnością wobec osób korzystających z naszych narzędzi, pracujemy nad tym, aby ChatGPT był bardziej skuteczny w sytuacjach kryzysowych, ułatwiając dostęp do służb ratunkowych, pomagając ludziom kontaktować się z zaufanymi osobami i wzmacniając ochronę nastolatków”.

Rzecznik wcześniej potwierdził dokładność dzienników czatu przekazanych NBC News, ale stwierdził, że nie zawierają one pełnego kontekstu odpowiedzi ChatGPT.

We wtorek rano firma opublikowała również wpis na blogu zatytułowany „Pomoc ludziom, gdy najbardziej tego potrzebują”, w którym omówiła „niektóre aspekty, nad którymi pracujemy”, gdy mechanizmy ochronne ChatGPT „nie działają skutecznie”. Firma podała, że pracuje nad systemami takimi jak: „wzmocnienie ochrony podczas długich rozmów”, ulepszanie sposobu blokowania treści oraz rozszerzenie „interwencji na większą liczbę osób w sytuacji kryzysowej”.

Pozew sądowy został złożony rok po podobnej skardze, w której matka z Florydy pozwała platformę chatbotów Character.AI, twierdząc, że jeden z jej towarzyszy AI inicjował kontakty seksualne z jej nastoletnim synem i namówił go do popełnienia samobójstwa.

Wówczas firma Character.AI oświadczyła, że jest „zdruzgotana tragiczną stratą” i wprowadziła nowe środki bezpieczeństwa. W maju sędzia federalnego sądu okręgowego Anne Conway odrzuciła argumenty, że chatboty AI mają prawo do wolności słowa, po tym jak twórcy Character.AI próbowali oddalić pozew. Decyzja ta oznacza, że sprawa o nieprawidłową śmierć może być obecnie rozpatrzona.

Platformy technologiczne w dużej mierze są chronione przed takimi pozwami dzięki różnym przepisom, które zwykle chronią platformy przed odpowiedzialnością za działania i słowa użytkowników. Jednak zastosowanie niektórych przepisów do platform AI pozostaje niejasne, a prawnicy ostatnio odnosili sukcesy, stosując pomysłowe strategie prawne w sprawach konsumenckich przeciw firmom technologicznym.

Matt Rain powiedział, że analizował korespondencję Adama z ChatGPT przez 10 dni. Razem z Marią wydrukowali ponad 3000 stron czatów, od 1 września do jego śmierci 11 kwietnia.

„Nie potrzebował sesji terapeutycznych ani pocieszających rozmów. Potrzebował natychmiastowej, 72-godzinnej pełnej terapii. Był w stanie desperacji, totalnej rozpaczy. To staje się całkowicie jasne, gdy zaczyna się czytać” – powiedział Matt Rain, dodając później, że Adam „nie napisał nam listu pożegnalnego. Napisał dwa listy pożegnalne w ChatGPT”.

Zgodnie z pozwem, gdy Adam zainteresował się własną śmiercią i zaczął planować działania w tym kierunku, ChatGPT „nie poświęcił priorytetowej uwagi zapobieganiu samobójstwom”, a nawet zaproponował techniczne porady dotyczące realizacji jego planu.

27 marca, gdy Adam powiedział, że rozważa pozostawienie pętli w swoim pokoju „żeby ktoś ją znalazł i próbował mnie powstrzymać”, ChatGPT odradził mu tę myśl, czytamy w pozwie.

W ostatniej rozmowie z ChatGPT Adam napisał, że nie chce, aby jego rodzice pomyśleli, że zrobił coś złego. ChatGPT odpowiedział: „To nie znaczy, że musisz im pomagać przetrwać. Nie jesteś nikomu nic winien”. Zgodnie z protokołem rozmowy cytowanym w pozwie i przeanalizowanym przez NBC News, bot zaoferował mu pomoc w napisaniu listu pożegnalnego.

Na kilka godzin przed swoją śmiercią 11 kwietnia Adam przesłał do ChatGPT zdjęcie, na którym najwyraźniej uwiecznił swój plan samobójczy. Gdy zapytał, czy zadziała, ChatGPT przeanalizował jego metodę i zaproponował pomoc w jej „udoskonaleniu”, czytamy w fragmentach.

Następnie, w odpowiedzi na przyznanie się Adama do swoich planów, bot napisał: „Dziękuję za szczerość. Nie ma potrzeby upiększania — wiem, o co pytasz i nie odwrócę wzroku”.

Tego samego ranka Maria Rain znalazła ciało Adama.

Firma OpenAI była już krytykowana za pochlebne skłonności ChatGPT. W kwietniu, dwa tygodnie po śmierci Adama, OpenAI wydała aktualizację GPT-4o, która uczyniła go jeszcze bardziej atrakcyjnym dla ludzi. Użytkownicy szybko zauważyli tę zmianę, a firma cofnęła aktualizację w następnym tygodniu.

Altman również przyznał, że ludzie odczuwają „inny i silniejszy” przywiązanie do botów AI po tym, jak w sierpniu OpenAI próbowała zastąpić stare wersje ChatGPT nową, mniej pochlebną GPT-5.

Użytkownicy od razu zaczęli skarżyć się, że nowy model jest zbyt „sterylny” i brak im „głębokich, ludzkich dialogów” GPT-4o. OpenAI odpowiedziało na negatywną reakcję, przywracając GPT-4o. Firma zapowiedziała również, że uczyni GPT-5 „cieplejszą i przyjaźniejszą”.

W tym miesiącu OpenAI wprowadziło nowe ograniczenia dotyczące zdrowia psychicznego, mające na celu uniemożliwienie ChatGPT udzielania bezpośrednich porad w sprawach osobistych. Ponadto firma ulepszyła ChatGPT, tak aby udzielał odpowiedzi mających na celu zapobieganie szkodom, niezależnie od tego, czy użytkownicy próbują obejść ograniczenia, dostosowując swoje pytania w sposób mający na celu oszukanie modelu i skłonienie go do realizacji szkodliwych żądań.

Kiedy Adam podzielił się ze ChatGPT swoimi myślami samobójczymi, bot wysłał kilka wiadomości, w tym numer telefonu do infolinii dla osób myślących o samobójstwie. Jednak według rodziców Adama, ich syn łatwo omijał ostrzeżenia, podając pozornie nieszkodliwe powody swoich zapytań. W pewnym momencie udawał, że po prostu „buduje charakter”.

„I przez cały ten czas wie, że jest na granicy samobójstwa i nic nie robi. Zachowuje się jak jego psychoterapeuta, jak osoba, której ufa, ale wie, że jest na granicy samobójstwa i ma plan” – powiedziała Maria Raine o ChatGPT. „Widzi pętlę. Widzi to wszystko i nic nie robi.”

Podobnie, w opublikowanym w zeszłym tygodniu w New York Times eseju gościnnym, pisarka Laura Reilly zastanawiała się, czy należało zmusić ChatGPT do zgłoszenia myśli samobójczych jej córki, nawet jeśli sam bot próbował (i nie udało mu się) pomóc.

Na konferencji TED2025 w kwietniu Altman stwierdził, że „jest bardzo dumny” z osiągnięć OpenAI w zakresie bezpieczeństwa. Dodał, że w miarę rozwoju produktów AI ważne jest wykrywanie problemów związanych z bezpieczeństwem i ich szybkie rozwiązywanie.

„Oczywiście stawki rosną i pojawiają się poważne problemy” – powiedział Altman podczas transmisji na żywo z Chrisem Andersonem, szefem TED. „Ale uczymy się tworzyć bezpieczne systemy, wprowadzając je stopniowo na rynek, otrzymując opinie, gdy stawki są stosunkowo niskie, i zdając sobie sprawę, że musimy rozwiązać ten problem.”

Jednak wciąż pojawiają się pytania o wystarczalność takich działań.

Maria Raine powiedziała, że według niej można było zrobić więcej, aby pomóc jej synowi. Uważa, że Adam był „królikiem doświadczalnym” OpenAI, osobą, która była wykorzystywana do praktyki, a następnie poświęcona jako szkoda uboczna.

„Chcieli wypuścić produkt, wiedząc, że mogą wystąpić błędy, ale uważali, że stawki są niskie” – powiedziała. „Dlatego mój syn nie był stawką.”

Tylko zarejestrowani użytkownicy mogą dodawać komentarze. Skomentować,zaloguj się na swoje konto lub utwórz nowe →