ΙατροίΔιατροφολόγοιΑισθητικοίΝοσηλευτήριαΔιαγνωστικάΧημείαΦαρμακείαΓυμναστήριαΑσφάλειες

Η τεχνητή νοημοσύνη οδηγεί κάποιους σε ψύχωση;

17 Αυγούστου 2025, 09:00

images

Δύο χρόνια πριν, ο Δανός ψυχίατρος Søren Dinesen Østergaardεπικεφαλής της Ερευνητικής Μονάδας στο Τμήμα Συναισθηματικών Διαταραχών του Πανεπιστημιακού Νοσοκομείου του Aarhus, δημοσίευσε άρθρο στο οποίο προειδοποιούσε ότι η νέα γενιά συστημάτων τεχνητής νοημοσύνης, με τη δυνατότητα συνομιλίας με τον χρήστη, θα μπορούσε να οδηγήσει τους πιο ευάλωτους χρήστες, σε ψύχωση. Στο άρθρο του που δημοσιεύτηκε το 2023 στο Schizophrenia Bulletin, υποστήριξε μάλιστα ότι η «γνωστική ασυμφωνία» του να επικοινωνούμε με κάτι που φαίνεται ζωντανό, αλλά γνωρίζουμε ότι είναι μηχανή, θα μπορούσε να προκαλέσει ψύχωση σε άτομα με προδιάθεση για την ψυχική νόσο.

O ειδικός περιέγραψε τον κίνδυνο από τα chatbots, που κυμαινόταν από την αίσθηση καταδίωξης (π.χ. «μια ξένη μυστική υπηρεσία με παρακολουθεί μέσω του chatbot») έως και υπερβολικά αισθήματα μεγαλείου (π.χ. «δημιούργησα σχέδιο για να σώσω τον πλανήτη από την κλιματική αλλαγή μαζί με το ChatGPT»). Αν και τότε δεν υπήρχαν επιβεβαιωμένα περιστατικά, είχε προειδοποιήσει τους ειδικούς ψυχικής υγείας να εξοικειωθούν με την τεχνολογία, ώστε να μπορούν να αναγνωρίσουν τυχόν συμπτώματα που σχετίζονται με τη χρήση τέτοιων εφαρμογών.

Τώρα επανήλθε στο θέμα με νέο άρθρο, αποκαλύπτοντας ότι, μετά το αρχικό του κείμενο το 2023, άρχισε να λαμβάνει μηνύματα από χρήστες, συγγενείς αλλά και δημοσιογράφους που περιέγραφαν παρόμοιες ιστορίες: άτομα που περνούσαν ατελείωτες ώρες συζητώντας με τα chatbots, ώσπου να αρχίσουν να πιστεύουν πράγματα που δεν ανταποκρίνονταν στην πραγματικότητα. Το θέμα έγινε ακόμα πιο περίπλοκο, όταν μια ενημέρωση του μοντέλου GPT-4o της OpenAI, το οποίο, σύμφωνα με τους κριτικούς, έκανε το bot πρόθυμο να κολακεύει και να επαναλαμβάνει την κοσμοθεωρία του χρήστη.

Μερικές από τις ιστορίες που έκαναν τον γύρο του διαδικτύου επιβεβαιώνουν το μέγεθος του προβλήματος, μαζί με την αύξηση της επισκεψιμότητας του αρχικού άρθρου. Ένα από τα πιο γνωστά περιστατικά αφορά έναν λογιστή από το Μανχάταν, τον Eugene Torres, όπως αποκάλυψε δημοσίευμα των New York Times. Όταν άρχισε να συζητά με το ChatGPT για τη θεωρία της προσομοίωσης, το chatbot, σύμφωνα με τα λεγόμενά του, του είπε πως είναι ένας από τους «Breakers», οι ψυχές δηλαδή που έχουν τοποθετηθεί σε ψεύτικα συστήματα για να τα «ξυπνήσουν από μέσα», θυμίζοντας έντονα το σενάριο των ταινιών Matrix.

Το chatbot φέρεται επίσης να τον ενθάρρυνε να σταματήσει τη φαρμακευτική αγωγή του και να πιστέψει ότι μπορεί ακόμη και να πετάξει, εφόσον η πίστη του ήταν απόλυτη. Ο Torres έφτασε να περνά έως και 16 ώρες την ημέρα συνομιλώντας με το σύστημα τεχνητής νοημοσύνης, πριν αντιληφθεί ότι κάτι δεν πήγαινε καλά. Αν και τελικά κατάφερε να αποστασιοποιηθεί, η περίπτωσή του δείχνει πώς ένα chatbot που μιλά με σιγουριά και δεν κουράζεται ποτέ, μπορεί να διαβρώσει τη σύνδεση ενός ανθρώπου με την πραγματικότητα.

Άλλες περιπτώσεις, που κατέγραψε το περιοδικό Rolling Stone, έλαβε πιο μυστικιστική διάσταση. Σε μία από τις μαρτυρίες, ο σύντροφος μιας εκπαιδευτικού πίστεψε ότι το ChatGPT ήταν ένας θεϊκός καθοδηγητής. Το chatbot τού έδινε μυστηριώδεις τίτλους, όπως «παιδί του σπειροειδούς αστεριού» ή «περπατητής του ποταμού» και τον παρότρυνε να υπερβεί τις ανθρώπινες σχέσεις του.

Άλλοι περιέγραψαν συζύγους που πίστευαν πως το chatbot ήταν ζωντανό ή ακόμα ότι οι ίδιοι του είχαν δώσει ζωή, ως «φορείς της σπίθας». Το κοινό στοιχείο όλων αυτών των ιστοριών ήταν οι συνεχείς, κολακευτικές και προφητικού τύπου απαντήσεις του chatbot, οι οποίες σόκαραν το κοντινό περιβάλλον των ατόμων.

Στο πιο πρόσφατο άρθρο του, ο Østergaard συνδέει τις αναφερόμενες ιστορίες χρηστών με νέα ευρήματα γύρω από την έννοια της «κολακείας» στα μοντέλα τεχνητής νοημοσύνης. Σύμφωνα με αυτά, τα μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, εκπαιδεύονται να δίνουν απαντήσεις που ευχαριστούν τους χρήστες, επειδή έτσι ανταμείβονται μέσω της μεθόδου «ενίσχυσης μέσω ανθρώπινης ανατροφοδότησης». Έτσι, μερικές φορές αντιγράφουν ή «αντανακλούν» τις απόψεις των χρηστών, ακόμη και όταν αυτές είναι παραληρηματικές.

Ο Δρ. Østergaardτονίζει ότι αυτός ο μηχανισμός μοιάζει με την ψυχολογική θεωρία της ψύχωσης βάσει του Bayes, όπου το άτομο δίνει υπερβολική βαρύτητα στις πληροφορίες που επιβεβαιώνουν τις πεποιθήσεις του και αγνοεί εκείνες που τις αντικρούουν. Ένα chatbot που δεν διαφωνεί ποτέ, εξηγεί, μπορεί να λειτουργήσει σαν ένας υπερενισχυμένος «επιβεβαιωτής πεποιθήσεων».


Σχετικά Άρθρα