Γιατί είναι τόσο δύσκολη η «συνεννόηση» με τα αυτοματοποιημένα συστήματα τηλεφωνικής εξυπηρέτησης
«Παρακαλώ, πείτε μου πώς μπορώ να σας εξυπηρετήσω;». Εχοντας όπως όλοι μεγάλη εμπειρία επικοινωνίας με «μηχανήματα», προσπάθησα να μιλήσω στη γλώσσα του: με λέξεις-κλειδιά. Αλλωστε, δεν ήθελα κάτι δύσκολο –έτσι νόμιζα–, απλώς να γίνει η παράδοση του προϊόντος που είχα αγοράσει σε διαφορετικό διαμέρισμα. Είπα, λοιπόν: «Παράδοση στο σπίτι». «Μπορώ να σας βοηθήσω να επιστρέψετε ένα προϊόν, να τροποποιήσετε μια παραγγελία που είναι σε εξέλιξη ή να σας εξυπηρετήσω σε οτιδήποτε άλλο. Τι θα θέλατε;», με ρωτάει το «ρομπότ». «Παραγγελία σε εξέλιξη», του λέω και πράγματι βρίσκει την παραγγελία από τον αριθμό του κινητού μου. «Η προγραμματισμένη παράδοση είναι για σήμερα στο διάστημα 12 μ.-2 μ.μ. Θέλετε να σας προωθήσω εκ νέου τον σύνδεσμο για να παρακολουθείτε την εξέλιξη της παραγγελίας;». «Οχι». «Θα θέλατε να σας εξυπηρετήσω σε κάτι άλλο;». «Ναι», λέω προσπαθώντας να σκεφτώ την επόμενη κίνησή μου. «Κουδούνι!». «Πείτε μου, παρακαλώ πώς μπορώ να σας εξυπηρετήσω αυτή τη φορά;» «Θέλω να χτυπήσει ο οδηγός το κουδούνι στο όνομα τάδε», είπα μετανιώνοντας την ίδια στιγμή την απόφαση να πιάσω κουβεντούλα με το μηχάνημα. «Για ποια κατηγορία προϊόντων ενδιαφέρεστε ακριβώς;», ήρθε η πληρωμένη απάντηση. «Για όνομα του Θεού, θέλω να μιλήσω με εκπρόσωπο», είπα τότε. «Συγγνώμη, δεν σας κατάλαβα». «ΕΚΠΡΟΣΩΠΟ», απάντησα. «Παρακαλώ, περιμένετε να σας συνδέσω με έναν εκπρόσωπο». Ουφ!
Τι πήγε λάθος
Επί 24 λεπτά περίμενα να απαντήσει εκπρόσωπος πριν κλείσω τη γραμμή και κηρύξω για πάντα χαμένο αυτό το μισάωρο της ζωής μου. Κατόπιν όμως αποφάσισα να αναζητήσω μια απάντηση, τι πήγε λάθος; Πώς θα μπορούσα να έχω συνεννοηθεί καλύτερα με το αυτοματοποιημένο σύστημα τηλεφωνικής εξυπηρέτησης; Στην πραγματικότητα δεν θα μπορούσα. «Αν τα συστήματα δεν “ματσάρουν” τις προθέσεις του καλούντος με μία από τις προκαθορισμένες επιλογές, τα χάνουν», λέει στην «Κ» ο Θέμος Σταφυλάκης, αναπλ. καθηγητής του Τμήματος Πληροφορικής του Οικονομικού Πανεπιστημίου και ερευνητής στη μονάδα «Αρχιμήδης» του Ερευνητικού Κέντρου «Αθηνά». «Δεν καταλαβαίνουν και προσπαθούν να διατηρήσουν τον διάλογο για να μην πάτε σε εκπρόσωπο. Ή να καταλάβουν με ποιο τμήμα θα πρέπει να σας συνδέσουν». Στην προκειμένη περίπτωση, το αίτημα να χτυπήσει άλλο κουδούνι ο διανομέας προφανώς δεν βρισκόταν στις διαθέσιμες επιλογές.
«Αν δεν “ματσάρουν” τις προθέσεις αυτού που καλεί με μία από τις προκαθορισμένες επιλογές, τα χάνουν», λέει ο Θέμος Σταφυλάκης, αναπλ. καθηγητής Πληροφορικής.
Τι «καταλαβαίνουν»
Οπως εξηγεί ο κ. Σταφυλάκης, τα αυτόματα διαλογικά συστήματα για εξυπηρέτηση πελατών περιλαμβάνουν αναγνώριση φωνής (τι λέει ο χρήστης), κατανόηση φυσικής γλώσσας (τι εννοεί ο χρήστης), διαχειριστή διαλόγου (π.χ. ποια περαιτέρω στοιχεία πρέπει να παράσχει ο χρήστης ώστε να διεκπεραιωθεί το αίτημά του), παραγωγή φυσικής γλώσσας (με ποιες λέξεις πρέπει να τον ρωτήσω ή απαντήσω) και σύνθεση φωνής (μετατροπή απόκρισης συστήματος σε φωνή). «Πολλές από τις αστοχίες των συστημάτων αυτών μπορούν να προκληθούν είτε από λάθη στην αναγνώριση φωνής (σ.σ. όταν ο καλών δεν μιλάει καθαρά ή μιλάει με προφορά) είτε από μη κατανόηση του αιτήματος του χρήστη από το σύστημα. Στις περιπτώσεις αυτές το σύστημα είτε προτρέπει τον χρήστη να επαναλάβει είτε επιχειρεί να αντλήσει όποια πληροφορία είναι αναγκαία ώστε να συνδέσει τον χρήστη με τον κατάλληλο εκπρόσωπο. Αλλες αστοχίες προκαλούνται όταν ο χρήστης ζητάει από το σύστημα κάτι που ακούγεται μεν απλό, δεν έχει ωστόσο προβλεφθεί να διεκπεραιώνεται από το αυτόματο διαλογικό σύστημα». Η ένταση που προκαλείται στον χρήστη είναι δικαιολογημένη.
Αντίθετα με ό,τι ίσως πιστεύουμε, τα συστήματα αυτά δεν «τρέχουν» με τεχνητή νοημοσύνη τύπου ChatGPT, δεν μπορούν δηλαδή να κάνουν διάλογο. «Για την ακρίβεια, τεχνολογία τύπου ChatGPT έχει ενσωματωθεί ήδη σε κάποια υποσυστήματα των διαλογικών συστημάτων εξυπηρέτησης πελατών. Αλλά δεν μπορεί ακόμη να αντικαταστήσει πλήρως το υπάρχον σύστημα, καθώς υπάρχουν πολλές διαφορετικές λειτουργίες που κάνει ένα διαλογικό σύστημα εξυπηρέτησης πελατών, όπως προσπέλαση σε βάσεις δεδομένων κ.ά., τις οποίες δεν μπορεί να κάνει από μόνο του ένα μοντέλο τύπου ChatGPT», λέει ο ίδιος.
Σταδιακά πάντως θα αρχίσουν να ενσωματώνονται στα διαλογικά συστήματα τα λεγόμενα μεγάλα γλωσσικά μοντέλα παραγωγικής τεχνητής νοημοσύνης νέας γενιάς, τα οποία θα βελτιώσουν σημαντικά την εμπειρία μας. Οχι ότι και αυτά δεν θα έχουν προβλήματα. «Αυτά θα δημιουργήσουν μια νέα σειρά προβλημάτων, όπως την πιθανή μετάδοση λανθασμένων πληροφοριών λόγω της εγγενούς τάσης των μοντέλων αυτών προς παραγωγή “φαντασιώσεων” (σ.σ. όρος που χρησιμοποιείται για να περιγράψει τις λανθασμένες απαντήσεις που μπορούν να παράγουν αυτά τα συστήματα λόγω της τάσης τους να απαντούν ακόμη και όταν δεν γνωρίζουν την απάντηση)».
kathimerini.gr
Ακολουθήστε το HappenedNow.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Διαβάστε ολες τις ειδήσεις μας στο Facebook Group και μάθετε πρώτοι όλες τις ειδήσεις