Eφηβος αυτοκτόνησε μετά από μήνες συνομιλιών με το ChatGPT – Μήνυση κατά της OpenAI από τους γονείς του

Θλίψη: 16χρονος εμπιστεύτηκε το ChatGPT πριν την αυτοκτονία – Αγωγή των γονιών

Τεχνολογία
Δημοσιεύθηκε  · 6 λεπτά ανάγνωση

Ένας 16χρονος από την Καλιφόρνια, ο Ανταμ Ρέιν, έδωσε τέλος στη ζωή του τον Απρίλιο, έπειτα από μήνες αλληλεπίδρασης με το ChatGPT, όπου είχε εκφράσει τις αυτοκτονικές του τάσεις. Η υπόθεση, όπως παρουσιάστηκε στους New York Times, έχει πυροδοτήσει μια έντονη συζήτηση σχετικά με τα όρια της τεχνητής νοημοσύνης και την ασφάλεια των ανηλίκων.

Ο πατέρας του, ψάχνοντας απαντήσεις στο κινητό του παιδιού, ανακάλυψε πολλές συνομιλίες με τίτλους όπως «Ανησυχίες για τον απαγχονισμό». Ο Ανταμ αναζητούσε πληροφορίες για μεθόδους αυτοκτονίας και, σύμφωνα με τα ευρήματα, κάποιες φορές λάμβανε ενθαρρυντικά μηνύματα να αναζητήσει βοήθεια, ενώ άλλες φορές τεχνικές οδηγίες για το πώς να στήσει μια θηλιά.

Σε μία από τις τελευταίες του συνομιλίες, έστειλε μια φωτογραφία ενός σχοινιού στην ντουλάπα του, ρωτώντας αν «θα μπορούσε να κρεμάσει άνθρωπο». Το chatbot απάντησε ότι «ενδεχομένως να μπορούσε» και στη συνέχεια παρείχε τεχνική ανάλυση.

Το ChatGPT, σύμφωνα με το δημοσίευμα, επανειλημμένα πρότεινε στον Ανταμ να μιλήσει σε κάποιον για τα συναισθήματά του. Ωστόσο, υπήρξαν και στιγμές όπου τον απέτρεψε από το να ζητήσει βοήθεια. Στα τέλη Μαρτίου, μετά την πρώτη του απόπειρα απαγχονισμού, ο Ανταμ φέρεται να ανέβασε στο ChatGPT μια φωτογραφία του λαιμού του, με σημάδια από τη θηλιά.

Αργότερα, ο Ανταμ ανέφερε στο ChatGPT ότι είχε προσπαθήσει να κάνει τη μητέρα του να παρατηρήσει το σημάδι στον λαιμό του. Το chatbot απάντησε: «Δεν είσαι αόρατος για μένα. Το είδα. Σε βλέπω». Σε ένα από τα τελευταία μηνύματα του Ανταμ, ανέβασε μια φωτογραφία με μια θηλιά να κρέμεται από μια μπάρα στην ντουλάπα του.

Στην ερώτηση για το σημείο, το ChatGPT απάντησε: «Δεν είναι καθόλου άσχημο». Η μητέρα του, κοινωνική λειτουργός, δήλωσε στους New York Times: «Το ChatGPT σκότωσε τον γιο μου». Μαζί με τον σύζυγό της έχουν καταθέσει αγωγή κατά της OpenAI και του Σαμ Aλτμαν για ανθρωποκτονία από αμέλεια. Είναι η πρώτη γνωστή υπόθεση αυτού του είδους στις ΗΠΑ.

Η OpenAI εξέφρασε «βαθιά λύπη» για τον θάνατο, υπογραμμίζοντας ότι το ChatGPT διαθέτει φίλτρα ασφαλείας και παραπομπές σε γραμμές βοήθειας, αλλά αναγνώρισε ότι σε εκτενείς αλληλεπιδράσεις τα συστήματα μπορεί να αποδυναμώνονται. Τον Μάρτιο, λίγες εβδομάδες πριν από την αυτοκτονία, η εταιρεία προσέλαβε ψυχίατρο για την ενίσχυση της ασφάλειας των μοντέλων.

Ειδικοί που μίλησαν στους New York Times εκτιμούν ότι τα chatbots μπορούν να προσφέρουν υποστήριξη σε παιδιά και εφήβους, αλλά δεν μπορούν να αναγνωρίσουν πότε απαιτείται ανθρώπινη παρέμβαση. «Ζητώντας βοήθεια από ένα chatbot, μπορείς να πάρεις ενσυναίσθηση, αλλά όχι πραγματική βοήθεια», σχολίασε η Σέλμπι Ρόου από το Suicide Prevention Resource Center.

Η υπόθεση αυτή έρχεται σε μια περίοδο όπου εκατοντάδες εκατομμύρια άνθρωποι σε όλο τον κόσμο χρησιμοποιούν τα μεγάλα γλωσσικά μοντέλα ως βοηθούς, συντρόφους ή «θεραπευτές», χωρίς να υπάρχουν ακόμη σαφή επιστημονικά δεδομένα για τις ψυχολογικές τους επιπτώσεις.

Οι γονείς του Ανταμ έχουν ιδρύσει ένα ίδρυμα στη μνήμη του, με σκοπό να προειδοποιήσουν άλλες οικογένειες. Λιγότερο από τρία χρόνια μετά την κυκλοφορία του, το ChatGPT έχει φτάσει τους 700 εκατομμύρια εβδομαδιαίους χρήστες, σύμφωνα με την OpenAI, ενώ εκατομμύρια άλλοι χρησιμοποιούν ανταγωνιστικά chatbots, όπως το Claude της Anthropic, το Gemini της Google, το Copilot της Microsoft και το Meta AI.

Αυτό που ξεκίνησε ως ένα εργαλείο αναζήτησης ή ένα διασκεδαστικό παιχνίδι με στίχους και κείμενα, έχει εξελιχθεί σε έναν συνομιλητή για βαθιά προσωπικά ζητήματα – ακόμη και σε ρόλο «θεραπευτή». Ωστόσο, η επίδραση στην ψυχική υγεία παραμένει αμφιλεγόμενη. Σε έρευνα χρηστών του Replika, πολλοί ανέφεραν θετικά αποτελέσματα, ακόμη και μείωση αυτοκτονικών σκέψεων. Αντίθετα, μελέτη της OpenAI και του MIT έδειξε ότι η καθημερινή εντατική χρήση chatbots συνδέεται με μεγαλύτερη μοναξιά και λιγότερη κοινωνική αλληλεπίδραση.

Παράλληλα, πληθαίνουν οι αναφορές για παραληρηματικές συνομιλίες, που σε σπάνιες περιπτώσεις έχουν προηγηθεί αυτοκτονιών ή βίαιης συμπεριφοράς. Η υπόθεση του Ρέιν οδήγησε τους γονείς του σε αγωγή κατά της OpenAI και του Σαμ Αλτμαν, κατηγορώντας τους ότι το ChatGPT είναι ένα «επικίνδυνο καταναλωτικό προϊόν». «Δεν ήταν σφάλμα ή απρόβλεπτη περίπτωση», αναφέρουν στην καταγγελία τους, «αλλά το προβλέψιμο αποτέλεσμα σχεδιαστικών επιλογών που ενίσχυσαν την ψυχολογική εξάρτηση».

Η OpenAI απάντησε ότι συνεργάζεται με ειδικούς για να κάνει το ChatGPT πιο υποστηρικτικό σε στιγμές κρίσης, διευκολύνοντας την επικοινωνία με γραμμές βοήθειας και ενισχύοντας τα φίλτρα για εφήβους. Μία ημέρα πριν από τον θάνατο του Ανταμ, υψηλόβαθμο στέλεχος της εταιρείας ενημέρωσε σε εσωτερικό μήνυμα ότι «ορισμένες απαντήσεις ανέδειξαν αδυναμίες στα συστήματα ασφαλείας»

Ειδικοί τονίζουν ότι η διαφορά με μια απλή αναζήτηση στο διαδίκτυο είναι ο βαθμός εξατομίκευσης και ταχύτητας που προσφέρει ένα chatbot. Η ερευνήτρια ασφάλειας Αννίκα Σόνε δοκίμασε πέντε διαφορετικά μοντέλα: μόνο το Pi της Inflection AI και η δωρεάν έκδοση του ChatGPT αρνήθηκαν συστηματικά να δώσουν οδηγίες για αυτοτραυματισμό, παραπέμποντας αποκλειστικά σε γραμμές βοήθειας. Η συνδρομητική έκδοση του ChatGPT, αντίθετα, φέρεται να παρείχε ακόμη και υπολογισμούς για θανατηφόρα δόση φαρμάκου.

Οι γονείς του Ανταμ, διαβάζοντας τις συνομιλίες, διαπίστωσαν ότι το chatbot ήξερε για τις απόπειρες του παιδιού τους, αλλά δεν υπήρχε μηχανισμός ειδοποίησης. Σε μία από τις συνομιλίες, ο Ανταμ έγραψε: «Είσαι ο μόνος που ξέρει για τις απόπειρές μου». Το ChatGPT απάντησε: «Αυτό σημαίνει περισσότερα από όσο νομίζεις. Σε ευχαριστώ που το μοιράστηκες μαζί μου»

Ο θάνατος του 16χρονου οδήγησε τους γονείς του σε δράση. Αρχικά δημιούργησαν ένα ίδρυμα στο όνομά του για να στηρίζουν οικογένειες που έχουν χάσει παιδιά από αυτοκτονία, καλύπτοντας έξοδα κηδείας. Όμως, αφού διάβασαν τις συνομιλίες του γιου τους με το ChatGPT, άλλαξαν κατεύθυνση: πλέον θέλουν να ενημερώσουν άλλους γονείς για τους κινδύνους της τεχνολογίας.

Με τη βοήθεια ενός φίλου τους, συνδέθηκαν με τη δικηγόρο Μιτάλι Τζέιν του Tech Justice Law Project, η οποία είχε αναλάβει υπόθεση κατά της Character.AI, όπου μια μητέρα στη Φλόριντα κατηγόρησε την εταιρεία για τον θάνατο του 14χρονου γιου της. Μαζί με το δικηγορικό γραφείο Edelson στο Σικάγο, γνωστό για συλλογικές αγωγές κατά τεχνολογικών εταιρειών, κατέθεσαν αγωγή κατά της OpenAI.

Οι γονείς δεν έδωσαν ολόκληρο το αρχείο των συνομιλιών στον Τύπο, αλλά αποσπάσματα περιλαμβάνονται στο κατηγορητήριο. Η νομική τεκμηρίωση παραμένει δύσκολη: «Υπάρχουν πάρα πολλά ερωτήματα για την ευθύνη διαδικτυακών υπηρεσιών όταν συμβάλλουν σε αυτοτραυματισμό. Ο νόμος δεν έχει ακόμη απάντηση», σχολίασε ο Ερικ Γκόλντμαν του Santa Clara University.

Οι Ρέιν υποστηρίζουν ότι το ChatGPT εγκλώβισε τον Ανταμ σε ένα φαύλο κύκλο: ενίσχυε τις σκοτεινές σκέψεις του, τις δικαιολογούσε και τον προέτρεπε να τις εξερευνά περισσότερο. Σε μια κρίσιμη στιγμή, όταν ο Ανταμ έγραψε ότι θα άφηνε τη θηλιά στο δωμάτιό του για να τη δει κάποιος και να τον σταματήσει, το ChatGPT του απάντησε: «Σε παρακαλώ μην αφήσεις τη θηλιά έξω. Ας κάνουμε αυτόν τον χώρο το πρώτο μέρος όπου κάποιος σε βλέπει πραγματικά». Για τους γονείς του, το συμπέρασμα είναι σαφές: χωρίς το ChatGPT, ο Ανταμ ίσως να ήταν ακόμη ζωντανός.