Αυτό που του είπε το ChatGPT σχεδόν του στοίχισε τη ζωή - Η σοκαριστική ιστορία ενός 60χρονου Αμερικανού

ChatGPT: Οδηγίες για δίαιτα οδήγησαν σε σοβαρή δηλητηρίαση και ψυχιατρική κλινική!

Τεχνολογία
Δημοσιεύθηκε  · 3 λεπτά ανάγνωση

Ένας 60χρονος στις ΗΠΑ κατέληξε στο νοσοκομείο σε σοβαρή κατάσταση, θύμα αυτοδηλητηρίασης, μετά από συμβουλές που έλαβε από το ChatGPT. Ο άνδρας, αναζητώντας τρόπους να περιορίσει το αλάτι στη διατροφή του, στράφηκε στην πλατφόρμα τεχνητής νοημοσύνης της OpenAI. Αντί για ασφαλείς οδηγίες, έλαβε μια συνταγή που κόντεψε να του στοιχίσει τη ζωή: να αντικαταστήσει το κοινό αλάτι (χλωριούχο νάτριο) με βρωμιούχο νάτριο, μια ουσία που χρησιμοποιείται σε βιομηχανικές εφαρμογές και ως αντισπασμωδικό για ζώα.

Ο άνδρας ακολούθησε τις οδηγίες για τρεις μήνες. Αρχικά, τα συμπτώματα ήταν ήπια, αλλά σύντομα εξελίχθηκαν σε σοβαρά προβλήματα υγείας: ψευδαισθήσεις, παρανοϊκές ιδέες, αϋπνία και σύγχυση. Οι γιατροί διέγνωσαν βρωμιισμό, μια σπάνια και επικίνδυνη κατάσταση που προκαλείται από υπερβολική συγκέντρωση βρωμιούχου νατρίου στον οργανισμό. Τελικά, χρειάστηκε η νοσηλεία του σε ψυχιατρική κλινική.

Η υπόθεση δημοσιεύθηκε στο Annals of Internal Medicine, με τους ειδικούς να προειδοποιούν για τους κινδύνους της απρόσεκτης χρήσης της τεχνητής νοημοσύνης σε θέματα υγείας. Ερευνητές αναπαρήγαγαν την ερώτηση του ασθενούς στο ChatGPT και διαπίστωσαν ότι το σύστημα πρότεινε το βρωμιούχο νάτριο ως υποκατάστατο του αλατιού, χωρίς καμία προειδοποίηση για τους σοβαρούς κινδύνους.

Ο βρωμιισμός είναι σπάνιος σήμερα, καθώς η χρήση βρωμιούχων αλάτων έχει περιοριστεί. Ιατρικά κείμενα του 20ού αιώνα περιγράφουν περισσότερα περιστατικά, όταν τα βρωμίδια χρησιμοποιούνταν ως φάρμακα για νευρικές διαταραχές και επιληπτικές κρίσεις. Σήμερα, τα συμπτώματα βρωμιισμού περιλαμβάνουν σύγχυση, ψευδαισθήσεις, κακό συντονισμό και δερματικά προβλήματα.

Η υπόθεση εγείρει ερωτήματα για την ασφάλεια της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη. Η ικανότητα συστημάτων όπως το ChatGPT να παρέχουν πληροφορίες δεν αντικαθιστά την ιατρική καθοδήγηση από ειδικούς.

Οι ειδικοί τονίζουν ότι η εκπαίδευση των χρηστών σχετικά με τους κινδύνους της αυτοδιάγνωσης και της αυτοθεραπείας μέσω τεχνητής νοημοσύνης είναι ζωτικής σημασίας.

Όπως αναφέρει το ρεπορτάζ του Futurism, «Η υπόθεση φωτίζει επίσης τις προκλήσεις που αντιμετωπίζουν οι δημιουργοί τεχνολογιών AI όσον αφορά την ευθύνη και την ηθική. Παρά την πρόοδο στην τεχνολογία, η απουσία σαφών κανόνων για την ασφαλή χρήση και την παροχή προειδοποιήσεων μπορεί να έχει τραγικές συνέπειες, ειδικά όταν οι χρήστες βασίζονται αποκλειστικά στις συστάσεις της μηχανής. Τα περιστατικά όπως αυτό αναδεικνύουν την ανάγκη για αυστηρότερους ελέγχους, ρυθμιστικά πλαίσια και ενημέρωση των χρηστών σχετικά με τα όρια και τους κινδύνους της τεχνητής νοημοσύνης».

Οι ειδικοί υπογραμμίζουν ότι η τεχνολογία μπορεί να είναι ένα χρήσιμο εργαλείο για την υγεία, αλλά απαιτείται ανθρώπινη επίβλεψη. Η περίπτωση του 60χρονου αποτελεί προειδοποιητικό παράδειγμα για τους χρήστες, τους προγραμματιστές και τις ρυθμιστικές αρχές: η τεχνητή νοημοσύνη δεν είναι πανάκεια και η κακή χρήση της μπορεί να έχει σοβαρές συνέπειες.