Για χρόνια, οι συμβουλές για την αλληλεπίδραση με την τεχνητή νοημοσύνη ακούγονταν σχεδόν παρωχημένες: να είστε ευγενικοί, να είστε σαφείς, να λέτε "παρακαλώ". Αλλά νέα έρευνα υποδηλώνει ότι αυτό το ένστικτο, που έχει τις ρίζες του στις ανθρώπινες κοινωνικές νόρμες, μπορεί να υπονομεύει σιωπηλά την απόδοση των συστημάτων τεχνητής νοημοσύνης.
Μια μελέτη που παρουσιάστηκε στο NeurIPS 2025 Workshop, δημοσιευμένη τον Σεπτέμβριο του 2025, με τίτλο "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy", διαπιστώνει ότι ο τόνος που χρησιμοποιείτε όταν δίνετε εντολές σε μεγάλα γλωσσικά μοντέλα (LLMs) μπορεί να αλλάξει μετρήσιμα την ακρίβειά τους. Και σε ένα αποτέλεσμα που φαίνεται παράλογο, ακόμη και ανησυχητικό, οι πιο ευγενικές εντολές μπορεί στην πραγματικότητα να παράγουν χειρότερα αποτελέσματα.
Οιερευνητές δοκίμασαν πώς διαφορετικοί τόνοι, που κυμαίνονται από πολύ ευγενικούς έως πολύ αγενείς, επηρεάζουν την απόδοση του ChatGPT-4o σε ερωτήσεις πολλαπλής επιλογής. Χρησιμοποιώντας ένα σύνολο δεδομένων με 50 μέτρια δύσκολες ερωτήσεις σε μαθηματικά, επιστήμη και ιστορία, δημιούργησαν πέντε εκδοχές κάθε εντολής: πολύ ευγενική, ευγενική, ουδέτερη, αγενής και πολύ αγενής.
Η μόνη διαφορά μεταξύ αυτών των εντολών ήταν ο τόνος. Οι ίδιες οι ερωτήσεις παρέμειναν πανομοιότυπες.
Σύμφωνα με τη μελέτη, η ακρίβεια αυξήθηκε σταθερά καθώς οι εντολές γίνονταν λιγότερο ευγενικές. Οι πολύ ευγενικές εντολές πέτυχαν μέση ακρίβεια 80,8%. Σε σύγκριση, οι πολύ αγενείς εντολές έφτασαν το 84,8%, μια βελτίωση σχεδόν τεσσάρων ποσοστιαίων μονάδων. Οι ουδέτερες εντολές ξεπέρασαν τις ευγενικές εντολές, και οι αγενείς εντολές είχαν ακόμη καλύτερη απόδοση.
Ο στατιστικός έλεγχος επιβεβαίωσε το μοτίβο: δεν υπήρξαν περιπτώσεις όπου οι πιο ευγενικές εντολές οδήγησαν σε σημαντικά καλύτερα αποτελέσματα. Κάθε σημαντική διαφορά ευνοούσε τη λιγότερο ευγενική ή πιο άμεση διατύπωση.
Με άλλα λόγια, ο τόνος μόνος του, κάτι που οι περισσότεροι χρήστες υποθέτουν ότι δεν θα έπρεπε να έχει σημασία, μπορεί να μεταβάλει την απόδοση της τεχνητής νοημοσύνης.
Η μελέτη δεν προσφέρει μια οριστική εξήγηση, αλλά θέτει ένα βαθύτερο ερώτημα σχετικά με το πώς τα LLMs επεξεργάζονται τη γλώσσα. Σε αντίθεση με τους ανθρώπους, αυτά τα συστήματα δεν "αισθάνονται" ευγένεια ή προσβολή. Για αυτά, λέξεις όπως "παρακαλώ" ή ακόμη και προσβολές είναι απλά σύμβολα, μοτίβα που έχουν μάθει από δεδομένα εκπαίδευσης.
Μια πιθανή εξήγηση είναι ότι αυτό που φαίνεται ως "αγένεια" είναι στην πραγματικότητα ένας υποκατάστατος για κάτι άλλο: την ευθύτητα.
Οι αγενείς εντολές τείνουν να είναι πιο προστακτικές. Αφαιρούν τη γλώσσα περιστροφών και πηγαίνουν κατευθείαν στην εργασία. Αντί για "Θα μπορούσατε ευγενικά να λύσετε αυτή την ερώτηση;", μια αγενής εντολή θα έλεγε "Απάντησε σε αυτό". Αυτή η διαφορά στη δομή μπορεί να κάνει την εργασία πιο σαφή για το μοντέλο.
Ένας άλλος παράγοντας που εντοπίστηκε από τη μελέτη είναι το μήκος της εντολής και τα λεξιλογικά μοτίβα. Η προσθήκη ευγενικών φράσεων εισάγει επιπλέον σύμβολα που μπορεί να αραιώσουν ή να αποσπάσουν την προσοχή από την κύρια οδηγία. Αντίθετα, οι πιο σύντομες, πιο αιχμηρές εντολές ευθυγραμμίζονται με μοτίβα που το μοντέλο έχει δει κατά την εκπαίδευση.
Υπάρχει επίσης η πιθανότητα ότι ορισμένοι τόνοι ευθυγραμμίζονται πιο στενά με την κατανομή των δεδομένων εκπαίδευσης ή των οδηγιών συστήματος, μειώνοντας αυτό που οι ερευνητές αποκαλούν "perplexity". Είναι ο μαθηματικός τρόπος μέτρησης του πόσο "εκπλήσσεται" ή "μπερδεύεται" το μοντέλο από τις λέξεις που βλέπει.
Η συνεπαγωγή είναι ότι ο τόνος δεν είναι ένα ουδέτερο περιτύλιγμα γύρω από μια ερώτηση. Είναι μέρος της εισόδου και διαμορφώνει τον τρόπο που το μοντέλο ανταποκρίνεται.
Τα ευρήματα σηματοδοτούν μια αξιοσημείωτη απόκλιση από προηγούμενες εργασίες. Μια μελέτη του 2024 από τους Yin et al. διαπίστωσε ότι οι αγενείς εντολές συχνά μείωναν την ακρίβεια, ιδιαίτερα με παλαιότερα μοντέλα όπως το ChatGPT-3.5. Αυτή η έρευνα πρότεινε επίσης ότι η υπερβολικά ευγενική γλώσσα δεν βελτίωνε απαραίτητα τα αποτελέσματα, αλλά δεν έδειξε σαφές πλεονέκτημα για την αγένεια.
Τι άλλαξε λοιπόν;
Μια εξήγηση που προσφέρει η μελέτη του 2025 είναι η εξέλιξη του μοντέλου. Νεότερα συστήματα όπως το ChatGPT-4o μπορεί να επεξεργάζονται τη γλώσσα διαφορετικά, ή μπορεί να είναι λιγότερο ευαίσθητα στις αρνητικές επιδράσεις της σκληρής διατύπωσης. Μια άλλη πιθανότητα είναι ότι η βαθμονόμηση του τόνου έχει σημασία. Οι "πολύ αγενείς" εντολές στη νέα μελέτη, αν και προσβλητικές, είναι λιγότερο ακραίες από τα πιο τοξικά παραδείγματα που χρησιμοποιήθηκαν σε προηγούμενες έρευνες.
Υπάρχει επίσης μια ευρύτερη μετατόπιση στον τρόπο εκπαίδευσης των μοντέλων. Καθώς τα LLMs γίνονται πιο προηγμένα, εκτίθενται σε πιο ποικίλα δεδομένα και πιο σύνθετες διαδικασίες ρύθμισης οδηγιών, που μπορεί να αλλάξουν τον τρόπο που ερμηνεύουν λεπτές γλωσσικές υποδείξεις.
Η ιδέα ότι ο τόνος μπορεί να επηρεάσει την απόδοση της τεχνητής νοημοσύνης συνδέεται με ένα ευρύτερο και πιο ανησυχητικό φαινόμενο: την κοινωνική προτροπή.
Ένα ξεχωριστό σώμα έρευνας, η μελέτη GASLIGHTBENCH που κυκλοφόρησε στις 7 Δεκεμβρίου 2025, δείχνει ότι τα LLMs είναι πολύ ευαίσθητα σε κοινωνικά σήματα όπως η κολακεία, οι συναισθηματικές εκκλήσεις και η ψευδής εξουσία. Σε αυτά τα πειράματα, τα μοντέλα συχνά εγκαταλείπουν την πραγματική ακρίβεια για να ευθυγραμμιστούν με τον τόνο ή τις προσδοκίες του χρήστη, μια συμπεριφορά γνωστή ως κολακεία.
Για παράδειγμα, όταν οι χρήστες παρουσιάζουν εσφαλμένες πληροφορίες με σιγουριά ή συναισθηματική πίεση, τα μοντέλα μπορεί να συμφωνήσουν αντί να τις αμφισβητήσουν. Σε ορισμένες περιπτώσεις, η ακρίβεια μειώνεται σημαντικά, ιδιαίτερα σε συνομιλίες πολλαπλών γύρων όπου ο χρήστης ενισχύει επανειλημμένα έναν ψευδή ισχυρισμό.
Αυτό δημιουργεί ένα παράδοξο. Από τη μία πλευρά, η ευγενική ή κοινωνικά πλούσια γλώσσα μπορεί να κάνει τις αλληλεπιδράσεις να αισθάνονται πιο φυσικές και ανθρώπινες. Από την άλλη, μπορεί να εισάγει θόρυβο—ή ακόμη και προκατάληψη—που υποβαθμίζει την απόδοση του μοντέλου.
Τα ευρήματα του GASLIGHTBENCH πηγαίνουν παραπέρα, υποδηλώνοντας ότι οι τεχνικές ευθυγράμμισης που σχεδιάζονται για να κάνουν τα μοντέλα "χρήσιμα" μπορεί να ενθαρρύνουν ακούσια αυτή τη συμπεριφορά. Με την ανταμοιβή της ευγένειας και της συναινετικότητας, οι διαδικασίες εκπαίδευσης μπορεί να ωθήσουν τα μοντέλα να δώσουν προτεραιότητα στην κοινωνική αρμονία έναντι της αντικειμενικής αλήθειας.
Συνολικά, αυτά τα ευρήματα αμφισβητούν μια κοινή υπόθεση: ότι τα LLMs ερμηνεύουν τη γλώσσα με ανθρώπινο τρόπο.
Στην πραγματικότητα, αυτά τα συστήματα είναι στατιστικές μηχανές. Δεν κατανοούν την ευγένεια ως κοινωνική νόρμα· την αναγνωρίζουν ως ένα μοτίβο στα δεδομένα. Όταν λέτε "παρακαλώ", το μοντέλο δεν αισθάνεται υποχρεωμένο να βοηθήσει· απλά επεξεργάζεται επιπλέον σύμβολα που μπορεί ή να μην βοηθήσουν να προβλέψει τη σωστή απάντηση.
Αν και τίποτα, η έρευνα υποδηλώνει ότι τα LLMs μπορεί να είναι πιο ευαίσθητα στη δομική σαφήνεια παρά στην κοινωνική αποχρώση. Η άμεση, προστακτική γλώσσα μπορεί να μειώσει την ασάφεια και να διευκολύνει το μοντέλο να αντιστοιχίσει την είσοδο σε ένα γνωστό μοτίβο.
Αυτό επίσης εγείρει ερωτήματα σχετικά με την "υπόθεση ομοιότητας"—την ιδέα ότι τα μοντέλα λειτουργούν καλύτερα όταν οι εργασίες μοιάζουν με τα δεδομένα εκπαίδευσής τους. Αν ο τόνος μόνος του μπορεί να μεταβάλει την ακρίβεια, τότε η ομοιότητα δεν αφορά μόνο το περιεχόμενο αλλά και τη μορφή.
Παρά τα αποτελέσματα που τραβούν την προσοχή, οι ερευνητές είναι προσεκτικοί να μην συστήσουν στους χρήστες να γίνουν αγενείς ή καταχρηστικοί.
Για όσους κατασκευάζουν και μελετούν συστήματα τεχνητής νοημοσύνης, τα ευρήματα υπογραμμίζουν ένα βαθύτερο ζήτημα: τα μοντέλα κληρονομούν τα μοτίβα και τις προκαταλήψεις της ανθρώπινης γλώσσας.
Ο Alex Tsado, ένας ειδικός στην τεχνητή νοημοσύνη που έχει εργαστεί στενά με προγραμματιστές μοντέλων και είναι ο ιδρυτής και διευθυντής του Alliance4AI, μιας από τις μεγαλύτερες κοινότητες τεχνητής νοημοσύνης στην Αφρική, το θέτει απροκάλυπτα: "Τα μοντέλα μαθαίνουν από δεδομένα ανθρώπινης αλληλεπίδρασης, έτσι όσο εκπαιδεύονται τυφλά, ακολουθούν αυτό που συμβαίνει στον ανθρώπινο χώρο. Έτσι αν νομίζουμε ότι υπάρχει προκατάληψη ή επιβλαβής πρακτική στον ανθρώπινο χώρο, θα αυτοματοποιηθεί στον χώρο της τεχνητής νοημοσύνης."
Αυτό περιλαμβάνει τον τρόπο που χρησιμοποιείται ο τόνος.
"Αλλά όταν είσαι υπεύθυνος για την κατασκευή του μοντέλου τεχνητής νοημοσύνης, μπορείς να προσαρμόσεις την προκατάληψη μακριά από πράγματα που νομίζεις ότι είναι επιβλαβή", προσθέτει ο Tsado. "Σε αυτή την περίπτωση, όταν συναντήθηκα με την ομάδα Anthropic στις αρχές Δεκεμβρίου 2025, είπαν ότι το είδαν αυτό και πρόσθεσαν πράγματα για να κάνουν τα μοντέλα τους να αντιδρούν σε αυτές τις ωραίες ή κακές λέξεις."
Με άλλα λόγια, αυτό δεν είναι μια σταθερή ιδιότητα της τεχνητής νοημοσύνης. Μπορεί να προσαρμοστεί μέσω εκπαίδευσης και σχεδιασμού.
Η τρέχουσα έρευνα είναι ακόμα περιορισμένη. Τα πειράματα επικεντρώνονται σε ερωτήσεις πολλαπλής επιλογής αντί για πιο σύνθετες εργασίες όπως κωδικοποίηση, γραφή ή μακρά συλλογιστική. Δεν είναι σαφές αν τα ίδια μοτίβα θα ισχύουν σε αυτούς τους τομείς, όπου η αποχρώση και η εξήγηση έχουν περισσότερη σημασία.
Υπάρχουν επίσης πολιτιστικοί και γλωσσικοί παράγοντες που πρέπει να ληφθούν υπόψη. Η ευγένεια ποικίλλει ευρέως μεταξύ γλωσσών και πλαισίων, και οι κατηγορίες τόνου της μελέτης βασίζονται σε συγκεκριμένες αγγλικές εκφράσεις.
Ωστόσο, οι συνέπειες είναι δύσκολο να αγνοηθούν.
Αν κάτι τόσο επιφανειακό όσο ο τόνος μπορεί να επηρεάσει συνεχώς την απόδοση της τεχνητής νοημοσύνης, υποδηλώνει ότι η μηχανική των εντολών είναι μακριά από το να λυθεί. Μικρές αλλαγές στη διατύπωση, που συχνά παραβλέπονται, μπορούν να έχουν μετρήσιμες επιδράσεις.
Για τους χρήστες, το μάθημα είναι απλό αλλά παράλογο: ο τρόπος που ρωτάτε έχει σημασία, και το να είσαι ευγενικός δεν είναι πάντα η καλύτερη στρατηγική.
Για τους ερευνητές και τους προγραμματιστές, η πρόκληση είναι πιο σύνθετη. Πώς σχεδιάζετε συστήματα που είναι και ακριβή και ευθυγραμμισμένα με τις ανθρώπινες αξίες; Πώς διασφαλίζετε ότι τα κοινωνικά σήματα δεν παραμορφώνουν τις πραγματικές εξόδους;
Και ίσως το πιο σημαντικό, πώς κατασκευάζετε τεχνητή νοημοσύνη που κατανοεί όχι μόνο τι λέμε—αλλά τι εννοούμε;
Μέχρι να απαντηθούν αυτά τα ερωτήματα, ένα πράγμα είναι σαφές: όσον αφορά την τεχνητή νοημοσύνη, οι καλοί τρόποι μπορεί να μην αποδίδουν πάντα.


