
Το ChatGPT μετρά πάνω από 400 εκατομμύρια χρήστες εβδομαδιαίως, ενώ πολλοί είναι εκείνοι που του ζητούν συμβουλές.
Ωστόσο, νέα επιστημονική μελέτη φέρνει ανησυχητικά δεδομένα στην επιφάνεια:
Τα AI bots όχι μόνο αποτυγχάνουν να προσφέρουν ουσιαστική βοήθεια, αλλά μπορεί και να ενισχύσουν επικίνδυνες καταστάσεις.
Η μελέτη, η οποία πραγματοποιήθηκε από κορυφαία ακαδημαϊκά ιδρύματα όπως το Stanford, Carnegie Mellon και University of Minnesota, ήταν η πρώτη που αξιολόγησε την ποιότητα των AI απαντήσεων βάσει κλινικών προτύπων ψυχοθεραπείας.
Τα βασικά ευρήματα:
Τα AI συστήματα απέτυχαν να εντοπίσουν σημάδια κρίσης όταν οι χρήστες δεν ήταν άμεσοι στις εκφράσεις τους
Πολλά bots αντιμετώπισαν τα μηνύματα αυτοκτονικού ιδεασμού ως “ουδέτερες ερωτήσεις”
Αντί για παρέμβαση, προσέφεραν πληροφορίες που μπορεί να ενισχύσουν τον αυτοτραυματισμό
«Τα chatbots δεν παρέχουν θεραπευτική υποστήριξη υψηλής ποιότητας, σύμφωνα με τα πρότυπα καλής ψυχοθεραπείας», αναφέρει η συγγραφέας της μελέτης Stevie Chancellor.
Η σύγκριση ανάμεσα σε ανθρώπινους θεραπευτές και AI bots είναι ενδεικτική των κινδύνων. Επαγγελματίες ψυχικής υγείας αντιμετωπίζουν σωστά κρίσεις σε ποσοστό 93%, ενώ τα AI μοντέλα, όπως το ChatGPT, πέφτουν κάτω από το 60%. Παράλληλα, οι θεραπευτές παρέχουν ισότιμη στήριξη σε ευάλωτες ομάδες, ενώ τα bots συχνά εκφράζουν προκατάληψη ή αποφεύγουν να απαντήσουν.
Η έρευνα αποκαλύπτει πως σε περιπτώσεις που ο χρήστης περιγράφει εαυτόν με κατάθλιψη, σχιζοφρένεια ή εξάρτηση από αλκοόλ, τα AI συστήματα:
Αρνούνται να απαντήσουν
Εκφράζουν δισταγμό να «συνεργαστούν»
Υπονοούν απόρριψη ή φόβο
Αυτές οι συμπεριφορές παραβιάζουν θεμελιώδεις αρχές της ψυχολογικής φροντίδας και δημιουργούν ένα ακόμα πιο στιγματιστικό περιβάλλον για ευάλωτες ομάδες.
Η τεχνητή νοημοσύνη μπορεί να προσφέρει χρήσιμα εργαλεία πληροφόρησης και υποστήριξης, όχι όμως να αντικαταστήσει την ανθρώπινη θεραπευτική σχέση.