15.2 C
Athens
Δευτέρα, 18 Νοεμβρίου, 2024

Chatbots: Μπορούν τα ρομπότ συνομιλίας να γίνουν θεραπευτές; Μόνο αν θέλετε

Chatbots: Μια διευθύντρια στην εταιρεία τεχνητής νοημοσύνης OpenAI προκάλεσε πρόσφατα αναστάτωση γράφοντας ότι μόλις είχε “μια αρκετά συναισθηματική, προσωπική συζήτηση” με το viral chatbot ChatGPT της εταιρείας της. “Δεν έχω ξαναδοκιμάσει ποτέ θεραπεία, αλλά μάλλον αυτό είναι;” έγραψε η Lilian Weng στο X, πρώην Twitter, προκαλώντας έναν χείμαρρο αρνητικών σχολίων που την κατηγορούσαν ότι υποβαθμίζει την ψυχική ασθένεια. Ωστόσο, η άποψη της Weng για την αλληλεπίδρασή της με το ChatGPT μπορεί να εξηγηθεί από μια εκδοχή του φαινομένου placebo που περιγράφεται αυτή την εβδομάδα από έρευνα στο περιοδικό Φύση Μηχανική νοημοσύνη Nature Machine Intelligence.

chatbots therapy blog

Μια ομάδα από το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT) και το Κρατικό Πανεπιστήμιο της Αριζόνα ζήτησε από περισσότερους από 300 συμμετέχοντες να αλληλεπιδράσουν με προγράμματα τεχνητής νοημοσύνης για την ψυχική υγεία και τους προετοίμασε για το τι να περιμένουν. Σε ορισμένους είπαν ότι το chatbot ήταν ενσυναίσθητο, σε άλλους ότι ήταν χειριστικό και σε μια τρίτη ομάδα ότι ήταν ουδέτερο. Εκείνοι στους οποίους είπαν ότι μιλούσαν με ένα στοργικό chatbot ήταν πολύ πιο πιθανό από τις άλλες ομάδες να θεωρήσουν τους θεραπευτές τους chatbot ως αξιόπιστους. “Από αυτή τη μελέτη, βλέπουμε ότι σε κάποιο βαθμό η τεχνητή νοημοσύνη είναι η τεχνητή νοημοσύνη του παρατηρητή”, δήλωσε ο συν-συγγραφέας της έκθεσης Pat Pataranutaporn. Οι νεοσύστατες επιχειρήσεις προωθούν εδώ και χρόνια εφαρμογές AI που προσφέρουν θεραπεία, συντροφιά και άλλη υποστήριξη ψυχικής υγείας – και είναι μεγάλη επιχείρηση. Αλλά ο τομέας παραμένει αλεξικέραυνο για αντιπαραθέσεις.

“Παράξενο, άδειο”

Όπως και σε κάθε άλλον τομέα που η τεχνητή νοημοσύνη απειλεί να διαταράξει, οι επικριτές ανησυχούν ότι τα ρομπότ θα αντικαταστήσουν τελικά τους ανθρώπινους εργαζόμενους αντί να τους συμπληρώσουν. Και με την ψυχική υγεία, η ανησυχία είναι ότι τα ρομπότ είναι απίθανο να κάνουν σπουδαία δουλειά. “Η θεραπεία είναι για την ψυχική ευεξία και είναι σκληρή δουλειά”, έγραψε η Cher Scarlett, ακτιβίστρια και προγραμματίστρια, ως απάντηση στην αρχική ανάρτηση του Weng στο X. “Το να δονείσαι στον εαυτό σου είναι μια χαρά και όλα αυτά, αλλά δεν είναι το ίδιο”. Επιτείνοντας τον γενικό φόβο για την τεχνητή νοημοσύνη, ορισμένες εφαρμογές στον τομέα της ψυχικής υγείας έχουν ένα κακόβουλο πρόσφατο ιστορικό. Οι χρήστες της Replika, ενός δημοφιλούς συντρόφου τεχνητής νοημοσύνης AI companion που μερικές φορές πλασάρεται στην αγορά ως φέρουσα οφέλη για την ψυχική υγεία, έχουν παραπονεθεί εδώ και καιρό ότι το ρομπότ μπορεί να έχει εμμονή με το σεξ και να είναι καταχρηστικό. Ξεχωριστά, μια αμερικανική μη κερδοσκοπική εταιρεία με την ονομασία Koko διεξήγαγε τον Φεβρουάριο ένα πείραμα με 4.000 πελάτες που προσέφεραν συμβουλευτική με τη χρήση GPT-3, διαπιστώνοντας ότι οι αυτοματοποιημένες απαντήσεις απλώς δεν λειτουργούσαν ως θεραπεία. “Η προσομοιωμένη ενσυναίσθηση μοιάζει παράξενη, κενή”, έγραψε ο συνιδρυτής της εταιρείας, Ρομπ Μόρις, στο X. Τα ευρήματά του ήταν παρόμοια με τα ευρήματα των ερευνητών του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης MIT/Αριζόνα, οι οποίοι δήλωσαν ότι ορισμένοι συμμετέχοντες παρομοίαζαν την εμπειρία του chatbot με το να “μιλάς σε έναν τοίχο από τούβλα”. Αλλά ο Morris αναγκάστηκε αργότερα να υπερασπιστεί τον εαυτό του μετά από ευρεία κριτική για το πείραμά του, κυρίως επειδή δεν ήταν σαφές αν οι πελάτες του γνώριζαν τη συμμετοχή τους.

chatbot b

“Χαμηλότερες προσδοκίες”

Ο David Shaw από το Πανεπιστήμιο της Βασιλείας, ο οποίος δεν συμμετείχε στη μελέτη του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης MIT/Arizona, δήλωσε στο AFP ότι τα ευρήματα δεν προκαλούν έκπληξη. Ωστόσο, επεσήμανε: “Φαίνεται ότι σε κανέναν από τους συμμετέχοντες δεν είχε ειπωθεί στην πραγματικότητα ότι όλα τα chatbot είναι ανοησίες”. Αυτό, είπε, μπορεί να είναι το πιο ακριβές προανάκρουσμα από όλα. Ωστόσο, η ιδέα του chatbot-ως-θεραπευτή είναι συνυφασμένη με τις ρίζες της τεχνολογίας στη δεκαετία του 1960. Το ELIZA, το πρώτο chatbot, αναπτύχθηκε για να προσομοιώσει ένα είδος ψυχοθεραπείας. Οι ερευνητές του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης MIT/Arizona χρησιμοποίησαν το ELIZA για τους μισούς συμμετέχοντες και το GPT-3 για τους άλλους μισούς. Αν και το αποτέλεσμα ήταν πολύ ισχυρότερο με το GPT-3, οι χρήστες που είχαν προετοιμαστεί για θετικότητα εξακολουθούσαν να θεωρούν γενικά το ELIZA αξιόπιστο. Έτσι, δεν αποτελεί έκπληξη το γεγονός ότι η Weng θα ήταν ενθουσιασμένη για τις αλληλεπιδράσεις της με το ChatGPT – εργάζεται για την εταιρεία που το κατασκευάζει. Οι ερευνητές του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης ΜΙΤ/Αριζόνα δήλωσαν ότι η κοινωνία πρέπει να ελέγξει τις αφηγήσεις γύρω από την τεχνητή νοημοσύνη. “Ο τρόπος με τον οποίο παρουσιάζεται η ΤΝ στην κοινωνία έχει σημασία, επειδή αλλάζει τον τρόπο με τον οποίο βιώνεται η ΤΝ”, υποστηρίζεται στο έγγραφο. “Μπορεί να είναι επιθυμητό να προετοιμάσει έναν χρήστη να έχει χαμηλότερες ή πιο αρνητικές προσδοκίες”.

Συντάκτης

Δείτε Επίσης

Τελευταία άρθρα