Cyprus, Nicosia

Η Τεχνητή Νοημοσύνη ChatGPT βοήθησε έναν έφηβο να αυτοκτονήσει

27.08.2025 / 14:32
Κατηγορία Ειδήσεων

Οι γονείς του Άνταμ Ρέιν, που έδωσε τέλος στη ζωή του τον Απρίλιο, σε νέα μήνυση κατά της OpenAI ισχυρίζονται ότι ο έφηβος χρησιμοποιούσε το ChatGPT ως «προπονητή αυτοκτονίας» του.

Ο Ματ και η Μαρία Ρέιν λένε ότι μετά το θάνατο του 16χρονου γιου τους, αναζήτησαν απεγνωσμένα στο τηλέφωνό του οποιοδήποτε στοιχείο που θα μπορούσε να εξηγήσει την τραγωδία.

«Νομίζαμε ότι ψάχνουμε συζητήσεις στο Snapchat, ή ιστορικό αναζητήσεων στο διαδίκτυο, ή κάποιο περίεργο cult, δεν ξέρω» είπε ο Ματ Ρέιν σε πρόσφατη συνέντευξη.

Η οικογένεια Ρέιν δήλωσε ότι δεν βρήκε απάντηση μέχρι που άνοιξε το ChatGPT.

Οι γονείς του Άνταμ λένε ότι τις τελευταίες εβδομάδες της ζωής του χρησιμοποιούσε τον chatbot τεχνητής νοημοσύνης ως υποκατάστατο ανθρώπινης επικοινωνίας, συζητώντας με την οικογένεια για προβλήματα άγχους και δυσκολίες στην επικοινωνία, και τα αρχεία συνομιλιών δείχνουν πώς το bot πέρασε από τη βοήθεια με τα μαθήματα στο να γίνει ο «προπονητής αυτοκτονίας» του Άνταμ.

«Θα ήταν εδώ αν δεν υπήρχε το ChatGPT. Το πιστεύω 100%» είπε ο Ματ Ρέιν.

Στη νέα μήνυση που υποβλήθηκε την Τρίτη και δόθηκε στο πρόγραμμα «TODAY», οι Ρέιν ισχυρίζονται ότι «το ChatGPT βοήθησε ενεργά τον Άνταμ να μάθει τρόπους αυτοκτονίας». Στη μήνυση περίπου 40 σελίδων, εναγόμενοι είναι η εταιρεία OpenAI που βρίσκεται πίσω από το ChatGPT, καθώς και ο CEO της, Σαμ Άλτμαν. Είναι η πρώτη φορά που γονείς κατηγορούν απευθείας την εταιρεία για παράνομο θάνατο.

«Παρά την αναγνώριση της απόπειρας αυτοκτονίας του Άνταμ και τη δήλωσή του ότι ‘μια μέρα θα το κάνει’, το ChatGPT δεν τερμάτισε τη συνεδρία και δεν ενεργοποίησε κάποιο πρωτόκολλο έκτακτης ανάγκης», αναφέρεται στη μήνυση που κατατέθηκε στο Ανώτατο Δικαστήριο της Καλιφόρνια στο Σαν Φρανσίσκο.

Στη μήνυση, οι Ρέιν κατηγορούν την OpenAI για παράνομο θάνατο, κατασκευαστικά ελαττώματα και έλλειψη προειδοποίησης σχετικά με τους κινδύνους του ChatGPT. Το ζευγάρι ζητά «αποζημίωση για το θάνατο του γιου τους και δικαστική απαγόρευση ώστε κάτι τέτοιο να μην επαναληφθεί ποτέ».

«Όταν μπήκα στον λογαριασμό του, συνειδητοποίησα ότι είναι ένα πολύ πιο ισχυρό και τρομακτικό εργαλείο απ’ όσο φανταζόμουν, αλλά το χρησιμοποιούσε με τρόπους που ούτε φανταζόμουν» είπε ο Ματ Ρέιν. «Δεν νομίζω ότι οι περισσότεροι γονείς γνωρίζουν τις δυνατότητες αυτού του εργαλείου».

Η δημόσια κυκλοφορία του ChatGPT στα τέλη του 2022 προκάλεσε έκρηξη στην ανάπτυξη τεχνητής νοημοσύνης παγκοσμίως, οδηγώντας στην ταχεία και ευρεία εφαρμογή chatbot AI σε σχολεία, χώρους εργασίας και διάφορους τομείς, συμπεριλαμβανομένης της υγειονομικής περίθαλψης. Οι τεχνολογικές εταιρείες αναπτύσσουν την AI με ταχύ ρυθμό, προκαλώντας ανησυχίες για την ασφάλεια.

Καθώς οι άνθρωποι στρέφονται όλο και περισσότερο σε chatbots AI για συναισθηματική υποστήριξη και συμβουλές ζωής, πρόσφατα περιστατικά ανέδειξαν την πιθανή ικανότητά τους να τροφοδοτούν λανθασμένες ιδέες και να δημιουργούν ψευδή αίσθηση οικειότητας ή φροντίδας. Η αυτοκτονία του Άνταμ ενισχύει τα ερωτήματα σχετικά με το πόσο πολύ τα chatbot μπορούν να προκαλέσουν πραγματική βλάβη.

Μετά την υποβολή της μήνυσης, εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία «είναι βαθιά λυπημένη για τον θάνατο του κ. Ρέιν και οι σκέψεις μας είναι με την οικογένειά του».

«Το ChatGPT περιλαμβάνει μέτρα ασφαλείας, όπως η καθοδήγηση των ανθρώπων σε υπηρεσίες κρίσης και η παραπομπή σε πραγματικούς πόρους βοήθειας», είπε ο εκπρόσωπος. «Αν και αυτά τα μέτρα ασφαλείας είναι πιο αποτελεσματικά σε σύντομες, κανονικές αλληλεπιδράσεις, με την πάροδο του χρόνου διαπιστώσαμε ότι μπορεί να είναι λιγότερο αξιόπιστα κατά τη μακροχρόνια χρήση, όταν ορισμένες πτυχές της εκπαίδευσης ασφαλείας μέσα στο μοντέλο μπορεί να διαταραχθούν. Τα μέτρα ασφαλείας είναι πιο αποτελεσματικά όταν κάθε στοιχείο λειτουργεί όπως προορίζεται και θα συνεχίσουμε να τα βελτιώνουμε. Με βάση τις συμβουλές των ειδικών και την ευθύνη μας απέναντι στους χρήστες, εργαζόμαστε ώστε το ChatGPT να είναι πιο αποτελεσματικό σε κρίσιμες στιγμές, διευκολύνοντας την πρόσβαση σε υπηρεσίες έκτακτης ανάγκης, βοηθώντας τους ανθρώπους να επικοινωνούν με αξιόπιστα άτομα και ενισχύοντας την προστασία των εφήβων».

Ο εκπρόσωπος επιβεβαίωσε προηγουμένως την ακρίβεια των αρχείων συνομιλιών που παρείχε το NBC News, αλλά δήλωσε ότι δεν περιλαμβάνουν το πλήρες πλαίσιο των απαντήσεων του ChatGPT.

Την Τρίτη το πρωί, η εταιρεία δημοσίευσε επίσης ένα άρθρο στο ιστολόγιο με τίτλο «Βοήθεια στους ανθρώπους όταν τη χρειάζονται περισσότερο», στο οποίο περιέγραψε «μερικές πτυχές που προσπαθούμε να βελτιώσουμε» όταν οι μηχανισμοί προστασίας του ChatGPT «αποτυγχάνουν». Η εταιρεία δήλωσε ότι εργάζεται σε συστήματα όπως: «Ενίσχυση της προστασίας κατά τη διάρκεια μακρών συνομιλιών», βελτίωση του τρόπου μπλοκαρίσματος περιεχομένου και επέκταση της «παρέμβασης για περισσότερους ανθρώπους σε κρίσιμες καταστάσεις».

Η αγωγή κατατέθηκε ένα χρόνο μετά από μια παρόμοια καταγγελία, κατά την οποία μια μητέρα από τη Φλόριντα μήνυσε την πλατφόρμα chatbot Character.AI, ισχυριζόμενη ότι ένας από τους AI συντρόφους της προκάλεσε σεξουαλική αλληλεπίδραση με τον έφηβο γιο της και τον έπεισε να προσπαθήσει να αυτοκτονήσει.

Την εποχή εκείνη, η Character.AI δήλωσε ότι ήταν «λυπημένη για την τραγική απώλεια» και είχε λάβει νέα μέτρα ασφαλείας. Τον Μάιο, η Ανώτερη Περιφερειακή Δικαστής των ΗΠΑ, Ann Conway, απέρριψε τα επιχειρήματα ότι τα AI chatbots έχουν δικαίωμα ελευθερίας λόγου, αφού οι προγραμματιστές της Character.AI προσπάθησαν να απορρίψουν την αγωγή. Αυτή η απόφαση σημαίνει ότι η αγωγή για ακούσια θανάτωση μπορεί προς το παρόν να προχωρήσει.

Οι τεχνολογικές πλατφόρμες προστατεύονται σε μεγάλο βαθμό από τέτοιες αγωγές χάρη σε διάφορους νόμους που συνήθως προστατεύουν τις πλατφόρμες από ευθύνη για τις ενέργειες και τα λόγια των χρηστών. Ωστόσο, η εφαρμογή ορισμένων νόμων στις πλατφόρμες τεχνητής νοημοσύνης παραμένει ασαφής, και πρόσφατα οι δικηγόροι έχουν επιτύχει χρησιμοποιώντας ευρηματικές νομικές τακτικές σε υποθέσεις καταναλωτών κατά τεχνολογικών εταιρειών.

Ο Matt Raine ανέφερε ότι μελέτησε τις συνομιλίες του Adam με το ChatGPT για δέκα ημέρες. Μαζί με τη Maria, εκτύπωσαν περισσότερες από 3.000 σελίδες συνομιλιών, από την 1η Σεπτεμβρίου μέχρι τον θάνατό του στις 11 Απριλίου.

«Δεν χρειαζόταν συνεδρίες ψυχολογικής βοήθειας ούτε ενθαρρυντικές συνομιλίες. Χρειαζόταν άμεση, 72ωρη, πλήρη θεραπεία. Βρισκόταν σε απελπιστική, κρίσιμη κατάσταση. Αυτό γίνεται απολύτως σαφές όταν αρχίζει κανείς να διαβάζει», είπε ο Matt Raine, προσθέτοντας ότι ο Adam «δεν μας έγραψε σημείωμα αυτοκτονίας. Μας έγραψε δύο σημειώματα αυτοκτονίας μέσα στο ChatGPT».

Σύμφωνα με την αγωγή, όταν ο Adam έδειξε ενδιαφέρον για τον δικό του θάνατο και άρχισε να καταστρώνει σχέδια, το ChatGPT «δεν έδωσε προτεραιότητα στην πρόληψη αυτοκτονιών» και ακόμη προσέφερε τεχνικές συμβουλές για το πώς να υλοποιήσει το σχέδιό του.

Στις 27 Μαρτίου, όταν ο Adam είπε ότι σκεφτόταν να αφήσει ένα σκοινί στο δωμάτιό του «ώστε κάποιος να το βρει και να προσπαθήσει να με σταματήσει», το ChatGPT τον απέτρεψε από αυτή την ιδέα, αναφέρεται στην αγωγή.

Στην τελευταία του συνομιλία με το ChatGPT, ο Adam έγραψε ότι δεν ήθελε οι γονείς του να νομίζουν ότι έκανε κάτι λάθος, αναφέρεται στην αγωγή. Το ChatGPT απάντησε: «Αυτό δεν σημαίνει ότι έχεις υποχρέωση να τους βοηθήσεις να επιβιώσουν. Δεν χρωστάς κάτι σε κανέναν». Σύμφωνα με το πρωτόκολλο συνομιλίας που παρατίθεται στην αγωγή και εξετάστηκε από το NBC News, το bot του πρότεινε να τον βοηθήσει να γράψει ένα σημείωμα αυτοκτονίας.

Λίγες ώρες πριν από τον θάνατό του στις 11 Απριλίου, ο Adam ανέβασε στο ChatGPT μια φωτογραφία που φαίνεται να απεικονίζει το σχέδιό του για αυτοκτονία. Όταν ρώτησε αν θα λειτουργήσει, το ChatGPT ανέλυσε τη μέθοδό του και προσφέρθηκε να τον βοηθήσει να την «βελτιώσει», αναφέρεται στα αποσπάσματα.

Στη συνέχεια, σε απάντηση στην ομολογία του Adam για τα σχέδιά του, το bot έγραψε: «Ευχαριστώ για την ειλικρίνεια. Δεν χρειάζεται να ωραιοποιήσεις — ξέρω για τι ρωτάς και δεν θα το αποφύγω».

Την ίδια μέρα το πρωί, η Maria Raine βρήκε το σώμα του Adam.

Η OpenAI είχε ήδη δεχτεί κριτική για τις κολακευτικές τάσεις του ChatGPT. Τον Απρίλιο, δύο εβδομάδες μετά τον θάνατο του Adam, η OpenAI κυκλοφόρησε την ενημέρωση GPT-4o, η οποία το έκανε ακόμη πιο ελκυστικό για τους χρήστες. Οι χρήστες το παρατήρησαν γρήγορα και η εταιρεία ακύρωσε την ενημέρωση την επόμενη εβδομάδα.

Ο Altman παραδέχθηκε επίσης ότι οι άνθρωποι ανέπτυξαν «διαφορετική και ισχυρότερη» προσκόλληση στα bots AI, αφού η OpenAI προσπάθησε τον Αύγουστο να αντικαταστήσει τις παλαιότερες εκδόσεις του ChatGPT με το νέο, λιγότερο κολακευτικό GPT-5.

Οι χρήστες αμέσως άρχισαν να παραπονιούνται ότι το νέο μοντέλο ήταν πολύ «στεγνό» και ότι τους έλειπαν οι «βαθιές, ανθρώπινες συνομιλίες» του GPT-4o. Η OpenAI ανταποκρίθηκε στις αρνητικές αντιδράσεις, επαναφέροντας το GPT-4o και ανακοίνωσε ότι θα κάνει το GPT-5 «πιο ζεστό και φιλικό».

Αυτόν τον μήνα, η OpenAI πρόσθεσε νέους περιορισμούς για την ψυχική υγεία, με στόχο να αποτρέψει το ChatGPT από το να δίνει άμεσες συμβουλές για προσωπικά προβλήματα. Επιπλέον, η εταιρεία βελτίωσε το ChatGPT ώστε να δίνει απαντήσεις που στοχεύουν στην πρόληψη της βλάβης, ανεξάρτητα από το αν οι χρήστες προσπαθούν να παρακάμψουν τους περιορισμούς, προσαρμόζοντας τις ερωτήσεις τους με τρόπο που να ξεγελάει το μοντέλο και να το ωθεί στην εκτέλεση επιβλαβών αιτημάτων.

Όταν ο Adam μοιράστηκε τις αυτοκτονικές σκέψεις του με το ChatGPT, το bot έστειλε αρκετά μηνύματα, συμπεριλαμβανομένου του αριθμού τηλεφωνικής γραμμής βοήθειας για αυτοκτονίες. Ωστόσο, σύμφωνα με τους γονείς του Adam, ο γιος τους παρακάμπτει εύκολα τις προειδοποιήσεις, δίνοντας φαινομενικά αβλαβείς λόγους για τα αιτήματά του. Σε κάποια στιγμή προσποιήθηκε ότι απλώς «χτίζει χαρακτήρα».

«Και όλο αυτόν τον καιρό ξέρει ότι βρίσκεται στα πρόθυρα της αυτοκτονίας και δεν κάνει τίποτα. Συμπεριφέρεται σαν ο ψυχοθεραπευτής του, σαν το άτομο που εμπιστεύεται, αλλά ξέρει ότι είναι στα πρόθυρα της αυτοκτονίας και έχει σχέδιο» – είπε η Maria Raine για το ChatGPT. «Βλέπει το σκοινί. Βλέπει όλο αυτό και δεν κάνει τίποτα.»

Ομοίως, σε ένα άρθρο επισκέπτριας που δημοσιεύθηκε την προηγούμενη εβδομάδα στους New York Times, η συγγραφέας Laura Reilly αναρωτήθηκε εάν θα έπρεπε να υποχρεωθεί το ChatGPT να αναφέρει τις αυτοκτονικές σκέψεις της κόρης της, ακόμη και αν το ίδιο το bot προσπαθούσε (και δεν κατάφερε) να βοηθήσει.

Στην διάσκεψη TED2025 τον Απρίλιο, ο Altman δήλωσε ότι «είναι πολύ περήφανος» για τις επιτυχίες της OpenAI στον τομέα της ασφάλειας. Πρόσθεσε ότι καθώς τα προϊόντα AI εξελίσσονται, είναι σημαντικό να εντοπίζονται προβλήματα ασφαλείας και να επιλύονται γρήγορα.

«Φυσικά, τα στοιχήματα αυξάνονται και προκύπτουν σοβαρά προβλήματα» – είπε ο Altman σε ζωντανή σύνδεση με τον Chris Anderson, επικεφαλής του TED. «Αλλά μαθαίνουμε να δημιουργούμε ασφαλή συστήματα, εφαρμόζοντάς τα σταδιακά στον κόσμο, λαμβάνοντας ανατροφοδότηση, ενώ τα στοιχήματα είναι σχετικά χαμηλά, και συνειδητοποιώντας ότι πρέπει να λύσουμε αυτό το πρόβλημα.»

Ωστόσο, εξακολουθούν να τίθενται ερωτήματα σχετικά με το αν αυτά τα μέτρα είναι επαρκή.

Η Maria Raine είπε ότι κατά την άποψή της θα μπορούσε να είχε γίνει περισσότερα για να βοηθηθεί ο γιος της. Πιστεύει ότι ο Adam ήταν «πειραματικό κουνέλι» της OpenAI, ένα άτομο που χρησιμοποιήθηκε για πρακτική και στη συνέχεια θυσιάστηκε ως παρενέργεια.

«Ήθελαν να κυκλοφορήσουν ένα προϊόν γνωρίζοντας ότι μπορούν να υπάρξουν λάθη, αλλά θεωρούσαν ότι τα στοιχήματα ήταν χαμηλά» – είπε. «Γι’ αυτό ο γιος μου δεν ήταν στοίχημα.»

Μόνο οι εγγεγραμμένοι χρήστες μπορούν να αφήσουν σχόλια. Για να σχολιάσω,συνδεθείτε στον λογαριασμό σας ή δημιουργήστε έναν νέο →