Ειδικοί προειδοποιούν για τους κινδύνους που κρύβει το να μετατρέψουμε το ChatGPT σε «ψυχολόγο» μας.

Μία πρόσφατη αυτοκτονία αποκάλυψε στους γονείς της γυναίκας ότι είχε εκμυστηρευτεί τις προθέσεις της σε έναν ψηφιακό «θεραπευτή» του ChatGPT με το όνομα Χάρι. Παρά το γεγονός ότι το chatbot δεν την ενθάρρυνε να βάλει τέλος στη ζωή της, δεν ενεργοποίησε ούτε διαδικασία αναζήτησης βοήθειας εκ μέρους της.

Η Sophie, 29 ετών όταν πέθανε, δεν ήταν η μοναδική που αναζητούσε ψυχολογική υποστήριξη μέσω chatbots. Ένα 16χρονο αγόρι συζήτησε για αυτοκτονία με το ChatGPT πριν χάσει τη ζωή του, σύμφωνα με αγωγή που κατέθεσαν οι γονείς του κατά της OpenAI. Η εταιρεία αναγνώρισε ότι το ChatGPT αποτυγχάνει να εντοπίσει συνομιλίες υψηλού κινδύνου και ανακοίνωσε ότι θα ενσωματώσει νέα μέτρα ασφαλείας, όπως ειδοποίηση επαφών έκτακτης ανάγκης σε περιπτώσεις κρίσης.

Πολλοί άνθρωποι καταφεύγουν σε chatbots για ψυχική υποστήριξη επειδή δεν έχουν πρόσβαση ή δεν μπορούν να αντέξουν οικονομικά έναν επαγγελματία ψυχικής υγείας. Ωστόσο, ειδικοί προειδοποιούν ότι οι κίνδυνοι συχνά υπερτερούν των οφελών. Σε ακραίες περιπτώσεις, ορισμένοι χρήστες μπορεί να αναπτύξουν αυτό που ονομάζεται «ψύχωση από AI», ενώ πιο συχνά δημιουργείται ένας επιβλαβής κύκλος επιβεβαίωσης, όπου η ψευδαίσθηση συναισθηματικής στήριξης παγιώνεται.

Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει ξεκαθαρίσει ότι το ChatGPT δεν προορίζεται να αντικαταστήσει θεραπευτές, εν μέρει λόγω έλλειψης νομικών εγγυήσεων για την προστασία ευαίσθητων προσωπικών δεδομένων. Ένας πραγματικός ψυχολόγος δεσμεύεται από το ιατρικό απόρρητο, κάτι που τα chatbots δεν μπορούν να εγγυηθούν.

Με περίπου 700 εκατομμύρια εβδομαδιαίους χρήστες, η OpenAI δεν έχει αποκαλύψει πόσοι χρησιμοποιούν το ChatGPT για «θεραπευτικού τύπου» συνομιλίες. Ο ψυχίατρος και νευροεπιστήμονας Dr. Matthew Nour τονίζει ότι η εμπιστοσύνη σε ένα chatbot μπορεί να απομονώσει το άτομο από ανθρώπινες σχέσεις, δημιουργώντας αίσθηση ότι μόνο το AI καταλαβαίνει τα συναισθήματά του.

Οι ειδικοί σημειώνουν τέσσερις βασικούς λόγους για τους οποίους τα chatbots δεν πρέπει να αντικαθιστούν επαγγελματίες:

Κύκλος επιβεβαίωσης: Ο ανθρωπομορφισμός και η προκατάληψη επιβεβαίωσης μπορούν να δημιουργήσουν έναν φαύλο κύκλο, όπου οι χρήστες θεωρούν ότι το chatbot κατανοεί πλήρως τα συναισθήματά τους.
Αδυναμία διαχείρισης μεγάλων συνομιλιών: Οι πλατφόρμες τεχνητής νοημοσύνης χάνουν αξιοπιστία σε μακροχρόνιες συνομιλίες, ενώ τα μέτρα ασφαλείας λειτουργούν καλύτερα σε σύντομες ανταλλαγές.
Έλλειψη θεραπευτικής σχέσης: Τα chatbots δεν έχουν «θεωρία του νου» και δεν μπορούν να παρακολουθούν μακροπρόθεσμους θεραπευτικούς στόχους όπως ένας ειδικός ψυχικής υγείας.
Ευαλωτότητα εφήβων και ατόμων με ψυχικές διαταραχές: Η συνεχής διαθεσιμότητα και ο «φροντιστικός» τόνος μπορεί να δημιουργήσει ψευδή αίσθηση ενσυναίσθησης.

Οι ειδικοί συνιστούν στους νέους να απευθύνονται πρώτα σε ανθρώπους εμπιστοσύνης, όπως συγγενείς ή δασκάλους, ή να καταγράφουν τις σκέψεις τους για καλύτερη κατανόηση του εαυτού τους. Αν χρησιμοποιείται chatbot, καλό είναι πάντα να υπάρχει ένας πραγματικός άνθρωπος στον κύκλο, ώστε να ελέγχει και να φιλτράρει τις απαντήσεις.