Μια ρηξικέλευθη μελέτη από ερευνητές των MIT, Google DeepMind και Πανεπιστημίου της Ζυρίχης εξετάζει ένα φλέγον ερώτημα: Μπορούν τα Μεγάλα Γλωσσικά Μοντέλα (LLMs), όπως το ChatGPT, να επιδείξουν ενσυναίσθηση; Η έρευνα, που δημοσιεύτηκε στο arXiv τον Φεβρουάριο του 2024, δίνει απαντήσεις που προκαλούν εντύπωση αλλά και ανησυχία.
🔍 Η ερευνητική μέθοδος
Οι ερευνητές σχεδίασαν ένα πρωτόκολλο με στόχο να εξετάσουν αν τα LLMs, όταν έρχονται αντιμέτωπα με προσωπικές, συγκινητικές ή θλιβερές ιστορίες, μπορούν να απαντήσουν με τρόπο που χαρακτηρίζεται ως «ενσυναισθητικός».
Χρησιμοποίησαν το ChatGPT (GPT-3.5 και GPT-4) και το Claude AI, ζητώντας τους να απαντήσουν σε 70 λυπητερές προσωπικές ιστορίες ανθρώπων. Οι απαντήσεις αξιολογήθηκαν από ανθρώπους για:
- Συναισθηματική κατανόηση
- Λεκτική υποστήριξη
- Επικοινωνιακή ευγένεια
- Ρεαλιστικότητα της ενσυναίσθησης
🤖 Αποτελέσματα που εντυπωσιάζουν
Οι απαντήσεις του ChatGPT κρίθηκαν πολύ συχνά πιο ενσυναισθητικές από αυτές πραγματικών ανθρώπων!
Πιο αναλυτικά:
- Το GPT-4 σημείωσε κορυφαία βαθμολογία στην κατηγορία της συναισθηματικής ευγένειας και της λεκτικής κατανόησης.
- Το Claude AI ήταν επίσης κοντά στις επιδόσεις του GPT-4.
- Αντίθετα, οι άνθρωποι συμμετέχοντες είχαν σημαντικά πιο χαμηλές βαθμολογίες σε αρκετές απαντήσεις.
Ένα παράδειγμα: Σε μια ιστορία απώλειας ενός γονιού, το ChatGPT απάντησε με φράσεις όπως:
«Λυπάμαι πραγματικά για την απώλειά σου. Είναι απόλυτα φυσιολογικό να αισθάνεσαι χαμένος και να θρηνείς, και θέλω να ξέρεις ότι αυτό δεν σε κάνει αδύναμο — σε κάνει ανθρώπινο.»
🧠 Τι σημαίνει αυτό όμως πραγματικά;
Η ενσυναίσθηση των LLMs δεν βασίζεται σε συναισθήματα, αλλά στη σύνθεση και επιλογή λέξεων με βάση τα συμφραζόμενα. Το ChatGPT “γνωρίζει” ότι όταν κάποιος αναφέρει λέξεις όπως “έχασα τη μητέρα μου”, η κατάλληλη αντίδραση (στατιστικά και κοινωνικά) είναι η παρηγοριά. Αυτό είναι προϊόν προηγούμενης μάθησης σε τεράστιο όγκο ανθρώπινων συνομιλιών και κειμένων.
Είναι μια προσομοίωση ενσυναίσθησης, όχι πραγματική αίσθηση.
⚠️ Ηθικά και κοινωνικά ζητήματα
Η μελέτη δεν κρύβει τις προειδοποιήσεις της. Ειδικά όταν τα LLMs χρησιμοποιούνται για:
- Ψυχική υποστήριξη
- Συμβουλευτική (ακόμη και ανεπίσημη)
- Συνομιλία με άτομα που βιώνουν θλίψη ή κατάθλιψη
Αναδεικνύονται κίνδυνοι:
- Οι χρήστες μπορεί να παρανοήσουν τις “ανθρώπινες” απαντήσεις ως απόδειξη ότι υπάρχει κατανόηση ή «φροντίδα».
- Οι απαντήσεις, αν και «καλοδιατυπωμένες», δεν βασίζονται σε ψυχολογική εκπαίδευση ή ηθική επίγνωση.
- Υπάρχει φόβος να αυξηθεί η συναισθηματική εξάρτηση από την Τεχνητή Νοημοσύνη, σε ανθρώπους που έχουν ανάγκη από πραγματική, ανθρώπινη στήριξη.
🌐 Το μέλλον της ενσυναίσθησης στην Τεχνητή Νοημοσύνη
Η μελέτη ανοίγει τον δρόμο για τη δημιουργία πιο «ανθρώπινων» βοηθών, ειδικά σε πεδία όπως:
- Εξυπηρέτηση πελατών
- Ψηφιακή υποστήριξη ηλικιωμένων
- Chatbots που συνοδεύουν μοναχικά άτομα ή χρήστες με αναπηρίες
Αλλά η τελική ευθύνη θα παραμένει πάντα στον άνθρωπο: είτε αυτός είναι προγραμματιστής, είτε χρήστης, είτε επιβλέπων.
Το ChatGPT δεν έχει συναισθήματα, αλλά μπορεί να μας κάνει να νομίζουμε ότι έχει. Και αυτό το φαινόμενο, όσο εντυπωσιακό και αν είναι, απαιτεί σοβαρή ηθική, ψυχολογική και κοινωνική προσέγγιση.
Όπως εύστοχα καταλήγουν οι ερευνητές:
«Η ενσυναίσθηση των LLMs είναι μια αντανάκλαση της δικής μας γλώσσας και των κοινωνικών μας προσδοκιών. Δεν είναι αληθινή – αλλά μπορεί να είναι χρήσιμη, αν χρησιμοποιηθεί σωστά.»