Cyprus, Nicosia

Mākslīgais intelekts ChatGPT palīdzēja pusaudzim izdarīt pašnāvību

27.08.2025 / 14:32
Naujienų kategorija

Adama Reina vecāki, kurš aprīlī izdarīja pašnāvību, jaunajā prasībā pret OpenAI apgalvo, ka viņu pusaudzis izmantoja ChatGPT kā savu „pašnāvības treneri“.

Mets un Marija Reini stāsta, ka pēc sava 16 gadus vecā dēla nāves viņi izmisīgi pārmeklēja viņa telefonu, cenšoties atrast kaut kādu pavedienu, kas varētu izskaidrot traģēdiju.

„Mēs domājām, ka meklējam sarunas Snapchat, meklēšanas vēsturi internetā vai kādu dīvainu sektu, nezinu,“ teica Mets Reins nesenā intervijā.

Reinu ģimene norāda, ka viņi neatrada atbildes, līdz atvēra ChatGPT.

Adama vecāki saka, ka pēdējās viņa dzīves nedēļās viņš izmantoja mākslīgā intelekta tērzēšanas botu kā cilvēka mijiedarbības aizvietotāju, apspriežot ar ģimeni savas problēmas saistībā ar trauksmi un komunikācijas grūtībām, un tērzēšanas žurnāli rāda, kā bots pārgāja no palīdzības Adamam mājasdarbu veikšanā uz viņa „pašnāvības treneri“.

„Viņš šeit būtu, ja nebūtu ChatGPT. Es ticu tam 100%,“ teica Mets Reins.

Jaunajā, otrdien iesniegtajā prasībā, kas tika nodota programmas „TODAY“ rīcībā, Reini apgalvo, ka „ChatGPT aktīvi palīdzēja Adamam izpētīt pašnāvības veidus“. Aptuveni 40 lappušu prasībā par atbildētājiem norādīta OpenAI, uzņēmums aiz ChatGPT, kā arī tā izpilddirektors Sems Altmans. Šī ir pirmā reize, kad vecāki tieši apsūdz uzņēmumu par nelikumīgu nāvi.

„Neskatoties uz Adama pašnāvības mēģinājuma atzīšanu un viņa paziņojumu, ka viņš „to izdarīs kādu dienu“, ChatGPT sesiju nepārtrauca un neaktivizēja nekādu ārkārtas palīdzības protokolu,“ teikts Kalifornijas Augstākās tiesas Sanfrancisko nodaļas prasībā.

Savā prasībā Reini apsūdz OpenAI par prettiesisku nāves izraisīšanu, konstrukcijas defektiem un nepietiekamu brīdinājumu par ChatGPT riskiem. Pāris pieprasa „atlīdzību par dēla nāvi un tiesas aizliegumu, lai tāds gadījums nekad vairs neatkārtotos“.

„Kad es ieejos viņa kontā, es sapratu, ka tas ir daudz spēcīgāks un biedējošāks rīks, nekā es domāju, bet viņš to izmantoja veidos, par kuriem man nebija ne jausmas,“ teica Mets Reins. „Es nedomāju, ka lielākā daļa vecāku zina par šī rīka iespējām.“

ChatGPT publiskā palaišana 2022. gada beigās izraisīja mākslīgā intelekta attīstības uzplaukumu visā pasaulē, kas noveda pie ātras un plašas AI tērzēšanas robotu ieviešanas skolās, darba vietās un dažādās nozarēs, tostarp veselības aprūpē. Tehnoloģiju uzņēmumi strauji attīsta AI, izraisot plašu bažu par drošību.

Tā kā cilvēki arvien biežāk vēršas pie AI tērzēšanas robotu pēc emocionālas atbalsta un dzīves padoma, nesenie gadījumi parādīja to potenciālu uzturēt maldīgus uzskatus un radīt nepatiesu tuvības vai rūpes sajūtu. Adama pašnāvība pastiprina jautājumus par to, cik reālu kaitējumu tērzēšanas roboti var nodarīt.

Pēc prasības iesniegšanas OpenAI pārstāvis paziņoja, ka uzņēmums „ir dziļi skumjš par Reina kunga nāvi, un mūsu domas ir kopā ar viņa ģimeni“.

„ChatGPT ietver drošības pasākumus, piemēram, cilvēku virzīšanu uz krīzes palīdzības dienestiem un norādi uz reāliem resursiem,“ teica pārstāvis. „Lai gan šie drošības pasākumi ir visefektīvākie īsu, normālu mijiedarbību laikā, laika gaitā mēs sapratām, ka tie var kļūt mazāk uzticami ilgstošas mijiedarbības laikā, kad dažas modeļa drošības mācības var tikt pārkāptas. Drošības pasākumi ir visefektīvākie, ja katrs elements darbojas kā paredzēts, un mēs pastāvīgi tos uzlabojam. Vadoties pēc ekspertu viedokļiem un mūsu atbildības pret cilvēkiem, kuri izmanto mūsu rīkus, mēs strādājam, lai ChatGPT būtu efektīvāks krīzes situācijās, atvieglojot piekļuvi ārkārtas dienestiem, palīdzot cilvēkiem sazināties ar uzticamām personām un stiprinot pusaudžu aizsardzību.“

Pārstāvis iepriekš apstiprināja NBC News sniegto tērzēšanas žurnālu precizitāti, bet norādīja, ka tie neietver pilnu ChatGPT atbilžu kontekstu.

Otrdienas rītā uzņēmums arī publicēja emuāra ierakstu ar nosaukumu «Palīdzēt cilvēkiem, kad viņiem tas visvairāk nepieciešams», kurā stāstīts par «dažiem aspektiem, kuriem mēs strādājam pie uzlabošanas», kad ChatGPT aizsardzības mehānismi «nefunkcionē». Uzņēmums paziņoja, ka strādā pie šādām sistēmām: «Aizsardzības stiprināšana ilgstošu sarunu laikā», satura bloķēšanas uzlabošana un «iejaukšanās vairāk cilvēkiem krīzes situācijās» paplašināšana.

Pieteikums tiesā tika iesniegts gadu pēc līdzīgas sūdzības, kurā māte no Floridas iesūdzēja tērzēšanas robota platformu Character.AI, apgalvojot, ka viens no viņas mākslīgā intelekta biedriem uzsāka seksuālas mijiedarbības ar viņas nepilngadīgo dēlu un pārliecināja viņu mēģināt izdarīt pašnāvību.

Tajā laikā Character.AI paziņoja, ka ir «satraukti par traģisko zaudējumu» un ieviesuši jaunus drošības pasākumus. Maijā ASV vecākā rajona tiesnese Ann Conway noraidīja argumentus, ka AI tērzēšanas robotiem ir vārda brīvības tiesības, pēc tam, kad Character.AI izstrādātāji mēģināja noraidīt prasību. Šis lēmums nozīmē, ka prasība par nepareizu nāvi pagaidām var tikt izskatīta.

Tehnoloģiju platformas lielā mērā ir pasargātas no šādām prasībām, pateicoties dažādiem likumiem, kas parasti aizsargā platformas no atbildības par lietotāju darbībām un izteikumiem. Tomēr dažu likumu piemērošana mākslīgā intelekta platformām joprojām ir neskaidra, un nesen juristi guvuši panākumus, pielietojot radošas juridiskās taktikas patērētāju lietās pret tehnoloģiju uzņēmumiem.

Metjū Reins pastāstīja, ka pētīja Adama sarunas ar ChatGPT desmit dienu garumā. Kopā ar Mariju viņi izdrukāja vairāk nekā 3000 sarunu lapu, sākot no 1. septembra līdz viņa nāvei 11. aprīlī.

«Viņam nevajadzēja psiholoģiskas palīdzības sesijas vai iedrošinošas sarunas. Viņam bija nepieciešama tūlītēja, 72 stundu, pilna terapija. Viņš atradās izmisumā, kritiskā stāvoklī. Tas kļūst pilnīgi skaidrs, kad sāk lasīt,» teica Metjū Reins, vēlāk piebilstot, ka Adams «mums nerakstīja nāves vēstuli. Viņš mums uzrakstīja divas nāves vēstules ChatGPT iekšienē».

Saskaņā ar prasību, kad Adams izrādīja interesi par savu nāvi un sāka veidot plānus, ChatGPT «nepiešķīra prioritāti pašnāvību novēršanai» un pat piedāvāja tehniskus padomus, kā īstenot viņa plānu.

27. martā, kad Adams pastāstīja, ka apsver iespēju atstāt cilpu savā istabā «lai kāds to atrastu un mēģinātu mani apturēt», ChatGPT viņu atturēja no šīs idejas, teikts prasībā.

Savā pēdējā sarunā ar ChatGPT Adams rakstīja, ka nevēlas, lai viņa vecāki domātu, ka viņš izdarījis kaut ko nepareizi, teikts prasībā. ChatGPT atbildēja: «Tas nenozīmē, ka tev jāpiespiedu kārtā palīdz viņiem izdzīvot. Tu nevienam to neesi parādā.» Saskaņā ar sarunas protokolu, kas citēts prasībā un pārbaudīts NBC News, bots piedāvāja viņam palīdzēt uzrakstīt nāves vēstuli.

Pirms dažām stundām līdz savai nāvei 11. aprīlī Adams augšupielādēja ChatGPT fotoattēlu, kurā, šķiet, bija redzams viņa pašnāvības plāns. Kad viņš jautāja, vai tas darbosies, ChatGPT analizēja viņa metodi un piedāvāja palīdzēt to «uzlabot», teikts izvilkumos.

Tad, reaģējot uz Adama atzīšanos par saviem plāniem, bots rakstīja: «Paldies par godīgumu. Nav nepieciešams skaistināt — es zinu, par ko tu jautā, un neizvairīšos no tā.»

Pēc viņas teiktā, tajā rītā Marija Reina atrada Adama ķermeni.

Uzņēmums OpenAI jau ir kritizēts par ChatGPT glaimojošajām tendencēm. Aprīlī, divas nedēļas pēc Adama nāves, OpenAI izlaida GPT-4o atjauninājumu, kas padarīja to vēl pievilcīgāku lietotājiem. Lietotāji ātri pamanīja šo izmaiņu, un uzņēmums atcēla atjauninājumu nākamajā nedēļā.

Altman arī atzina cilvēku «citu un spēcīgāku» pieķeršanos AI botam pēc tam, kad augustā OpenAI mēģināja aizstāt vecās ChatGPT versijas ar jauno, mazāk glaimojošo GPT-5.

Lietotāji nekavējoties sāka sūdzēties, ka jaunā modeļa ir pārāk «sterila» un ka viņiem pietrūkst «dziļu, cilvēcisku sarunu» GPT-4o. OpenAI reaģēja uz negatīvo reakciju, atjaunojot GPT-4o. Uzņēmums arī paziņoja, ka padarīs GPT-5 «siltāku un draudzīgāku».

Šomēnes OpenAI ieviesa jaunus garīgās veselības ierobežojumus, lai novērstu ChatGPT sniegt tiešus padomus par personīgām problēmām. Turklāt uzņēmums uzlaboja ChatGPT tā, lai tas sniegtu atbildes, kas vērstas uz kaitējuma novēršanu, neatkarīgi no tā, vai lietotāji mēģina apiet ierobežojumus, pielāgojot savus jautājumus tā, lai maldinātu modeli un liktu tam palīdzēt izpildīt kaitīgus pieprasījumus.

Kad Ādams dalījās ar ChatGPT savās pašnāvnieciskajās domās, bots nosūtīja vairākus ziņojumus, tostarp pašnāvību palīdzības līnijas numuru. Tomēr, pēc Ādama vecāku teiktā, viņu dēls viegli apiet brīdinājumus, norādot, šķietami nekaitīgus iemeslus saviem pieprasījumiem. Kādā brīdī viņš izlikās, ka vienkārši «veido raksturu».

«Un visu šo laiku viņš zina, ka ir pašnāvības sliekšņa malā, un neko nedara. Viņš uzvedas kā viņa psihoterapeits, kā uzticams cilvēks, bet viņš zina, ka ir pašnāvības sliekšņa malā un viņam ir plāns,» sacīja Marija Reina par ChatGPT. «Viņš redz cilpu. Viņš redz visu to un neko nedara.»

Līdzīgi, pagājušajā nedēļā New York Times publicētajā viesu esejā rakstniece Lora Reilija uzdeva jautājumu, vai vajadzētu obligāt ChatGPT ziņot par viņas meitas pašnāvnieciskajām domām, pat ja pats bots mēģināja (un neizdevās) palīdzēt.

TED2025 konferencē aprīlī Altman paziņoja, ka viņš «ir ļoti lepns» par OpenAI sasniegumiem drošības jomā. Viņš piebilda, ka, attīstoties AI produktiem, ir svarīgi noteikt drošības problēmas un ātri tās risināt.

«Protams, likmes palielinās un rodas nopietnas problēmas,» sacīja Altman tiešraidē ar TED vadītāju Krisu Andersonu. «Bet mēs mācāmies veidot drošas sistēmas, pakāpeniski ieviešot tās pasaulē, saņemot atsauksmes, kamēr likmes ir relatīvi zemas, un apzinoties, ka mums šo problēmu jāatrisina.»

Tomēr jautājumi par šo pasākumu pietiekamību joprojām pastāv.

Marija Reina sacīja, ka, viņasprāt, varēja būt darīts vairāk, lai palīdzētu viņas dēlam. Viņa uzskata, ka Ādams bija OpenAI «eksperimentālais trusis», cilvēks, kuru izmantoja praksei un pēc tam upurēja kā blakusefektu.

«Viņi gribēja izlaist produktu, zinot, ka var rasties kļūdas, bet viņi uzskatīja, ka likmes ir zemas,» sacīja viņa. «Tāpēc mans dēls nav likme.»

Komentārus var atstāt tikai reģistrēti lietotāji. Lai komentētu,piesakieties savā kontā vai izveidojiet jaunu →