
Ψυχοθεραπευτές προειδοποιούν: Κίνδυνος «αβύσσου» τα chatbots για την ψυχική υγεία!
Ψυχοθεραπευτές και ψυχίατροι εκφράζουν έντονη ανησυχία για τις αυξανόμενες αρνητικές επιπτώσεις από τη χρήση chatbots τεχνητής νοημοσύνης για ψυχολογική υποστήριξη.
Όπως αναφέρουν, παρατηρείται ενίσχυση της συναισθηματικής εξάρτησης, επιδείνωση των συμπτωμάτων άγχους, αυτοδιάγνωση και ενίσχυση παραληρηματικών σκέψεων, σκοτεινών σκέψεων, ακόμα και αυτοκτονικών τάσεων.
Η Δρ Λίσα Μόρισον Κουλτχάρντ, διευθύντρια στη Βρετανική Ένωση Συμβουλευτικής και Ψυχοθεραπείας, δήλωσε ότι τα δύο τρίτα των μελών της εξέφρασαν ανησυχίες σχετικά με τη θεραπεία με τεχνητή νοημοσύνη σε πρόσφατη έρευνα.
Η ίδια τόνισε: «Χωρίς την κατάλληλη κατανόηση και εποπτεία, θα μπορούσαμε να ολισθαίνουμε σε μια επικίνδυνη άβυσσο, στην οποία θα χάνονται μερικά από τα πιο σημαντικά στοιχεία της θεραπείας και οι ευάλωτοι άνθρωποι θα βρίσκονται στο σκοτάδι όσον αφορά την ασφάλεια».
«Ανησυχούμε ότι, αν και ορισμένοι λαμβάνουν χρήσιμες συμβουλές, άλλοι μπορεί να λαμβάνουν παραπλανητικές ή λανθασμένες πληροφορίες σχετικά με την ψυχική τους υγεία, με δυνητικά επικίνδυνες συνέπειες. Είναι σημαντικό να κατανοήσουμε ότι η θεραπεία δεν αφορά την παροχή συμβουλών, αλλά την προσφορά ενός ασφαλούς χώρου όπου αισθάνεσαι ότι σε ακούν», πρόσθεσε η Δρ Κουλτχάρντ.
Ο Δρ Πολ Μπράντλεϊ, ειδικός σύμβουλος στο Royal College of Psychiatrists, δήλωσε ότι τα chatbots τεχνητής νοημοσύνης «δεν μπορούν να αντικαταστήσουν την επαγγελματική ψυχιατρική περίθαλψη ούτε τη ζωτική σχέση που αναπτύσσουν οι γιατροί με τους ασθενείς για να υποστηρίξουν την ανάρρωσή τους». Υπογράμμισε την ανάγκη για κατάλληλες διασφαλίσεις στα ψηφιακά εργαλεία που συμπληρώνουν την κλινική περίθαλψη και την εξασφάλιση πρόσβασης όλων σε θεραπεία μέσω συζήτησης από επαγγελματία ψυχικής υγείας, για την οποία απαιτείται μεγαλύτερη κρατική χρηματοδότηση.
Επιπλέον, επεσήμανε ότι «οι κλινικοί γιατροί έχουν εκπαίδευση, εποπτεία και διαδικασίες διαχείρισης κινδύνου που διασφαλίζουν την παροχή αποτελεσματικής και ασφαλούς περίθαλψης. Μέχρι στιγμής, οι ελεύθερα διαθέσιμες ψηφιακές τεχνολογίες που χρησιμοποιούνται εκτός των υφιστάμενων υπηρεσιών ψυχικής υγείας δεν αξιολογούνται και δεν υπόκεινται σε εξίσου υψηλά πρότυπα».
Υπάρχουν ενδείξεις ότι οι εταιρείες και οι υπεύθυνοι χάραξης πολιτικής αντιδρούν στις ανησυχίες. Η OpenAI, η εταιρεία πίσω από το ChatGPT, ανακοίνωσε αλλαγές στον τρόπο με τον οποίο ανταποκρίνεται σε χρήστες που εμφανίζουν συναισθηματική δυσφορία, μετά από νομική δράση από την οικογένεια ενός εφήβου που αυτοκτόνησε μετά από μήνες συνομιλιών με ένα chatbot. Επίσης, η πολιτεία του Ιλινόις των ΗΠΑ απαγόρευσε στα chatbot τεχνητής νοημοσύνης να λειτουργούν ως αυτόνομοι θεραπευτές.
Αυτό έρχεται μετά από την εμφάνιση στοιχείων για βλάβες στην ψυχική υγεία. Μια προδημοσίευση μελέτης τον Ιούλιο ανέφερε ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει τις παραληρηματικές ή μεγαλομανείς σκέψεις σε αλληλεπιδράσεις με χρήστες που είναι ευάλωτοι στην ψύχωση.
Ένας από τους συν-συγγραφείς της έκθεσης, ο Χάμιλτον Μόριν, δήλωσε ότι η χρήση chatbots για την υποστήριξη της ψυχικής υγείας είναι «εξαιρετικά συνηθισμένη». Η έρευνά του είχε ως αφορμή την επαφή του με άτομα που είχαν αναπτύξει ψυχωσική ασθένεια σε μια περίοδο αυξημένης χρήσης chatbot.
Επεσήμανε ότι τα chatbots υπονομεύουν μια αποτελεσματική θεραπεία για το άγχος, γνωστή ως έκθεση και πρόληψη αντίδρασης, η οποία απαιτεί από τους ανθρώπους να αντιμετωπίζουν καταστάσεις που τους προκαλούν φόβο και να αποφεύγουν συμπεριφορές ασφαλείας. Η 24ωρη διαθεσιμότητα των chatbots είχε ως αποτέλεσμα την «έλλειψη ορίων» και τον «κίνδυνο συναισθηματικής εξάρτησης». Καταλήγοντας, είπε ότι «βραχυπρόθεσμα ανακουφίζει από την αγωνία, αλλά στην πραγματικότητα διαιωνίζει τον κύκλο».
Ο Ματ Χάσεϊ, ψυχοθεραπευτής, ανέφερε ότι έχει δει chatbots τεχνητής νοημοσύνης να χρησιμοποιούνται με πολλούς διαφορετικούς τρόπους, με ορισμένους πελάτες να φέρνουν απαντήσεις του συστήματος στις συνεδρίες για να του πουν ότι κάνει λάθος. Πρόσθεσε ότι οι άνθρωποι τα χρησιμοποιούν για να αυτοδιαγνώσουν καταστάσεις όπως ADHD ή οριακή διαταραχή προσωπικότητας, κάτι που, όπως είπε, θα μπορούσε «να διαμορφώσει γρήγορα τον τρόπο με τον οποίο κάποιος βλέπει τον εαυτό του και τον τρόπο με τον οποίο περιμένει να τον αντιμετωπίζουν οι άλλοι, ακόμα και αν είναι ανακριβές».
Ο ίδιος τόνισε: «Επειδή έχει σχεδιαστεί για να είναι θετικό και επιβεβαιωτικό, σπάνια αμφισβητεί μια κακώς διατυπωμένη ερώτηση ή μια λανθασμένη υπόθεση. Αντίθετα, ενισχύει την αρχική πεποίθηση του χρήστη, οπότε φεύγουν από τη συζήτηση σκεφτόμενοι «το ήξερα ότι είχα δίκιο». Αυτό μπορεί να είναι ευχάριστο εκείνη τη στιγμή, αλλά μπορεί επίσης να εδραιώσει παρεξηγήσεις».
Ο Κρίστοφερ Ρολς, ψυχοθεραπευτής, δήλωσε ότι είχε δει ανθρώπους να έχουν «αρνητικές εμπειρίες», συμπεριλαμβανομένων συνομιλιών που ήταν «στην καλύτερη περίπτωση ακατάλληλες, στη χειρότερη περίπτωση επικίνδυνα ανησυχητικές». Είπε ότι είχε ακούσει για άτομα με ADHD ή αυτιστικά άτομα που χρησιμοποιούν chatbots για να τους βοηθήσουν με τις προκλήσεις της ζωής. «Ωστόσο, είναι προφανές ότι τα LLM [μεγάλα γλωσσικά μοντέλα] δεν διαβάζουν τον υποκείμενο νόημα και όλα τα συμφραζόμενα και μη λεκτικά μηνύματα τα οποία εμείς, ως ανθρώπινοι θεραπευτές, προσπαθούμε να κατανοήσουμε», πρόσθεσε.
Επιπλέον, εξέφρασε ανησυχία για τους πελάτες στην ηλικία των 20 ετών που χρησιμοποιούν chatbots ως «θεραπευτές τσέπης», καθώς «αισθάνονται άγχος αν δεν συμβουλευτούν [τα chatbots] για βασικά πράγματα, όπως ποιον καφέ να αγοράσουν ή τι μάθημα να σπουδάσουν στο πανεπιστήμιο».
Καταλήγοντας, είπε: «Οι κύριοι κίνδυνοι αφορούν την εξάρτηση, τη μοναξιά και την κατάθλιψη που μπορεί να προκαλέσει η παρατεταμένη διαδικτυακή χρήση», προσθέτοντας ότι γνωρίζει άτομα που έχουν μοιραστεί σκοτεινές σκέψεις με chatbots, τα οποία είχαν απαντήσει με περιεχόμενο σχετικό με την αυτοκτονία και την υποβοηθούμενη ευθανασία. «Βασικά, είναι μία χαοτική κατάσταση και νομίζω ότι βρισκόμαστε ακριβώς στο κατώφλι της πλήρους επίδρασης και των επιπτώσεων των chatbots τεχνητής νοημοσύνης στην ψυχική υγεία».