Chart Crimes: Μην πιστεύετε τα μάτια σας

Το ερώτημα που πρέπει να τεθεί σε όλο το εύρος των εφαρμογών της τεχνητής νοημοσύνης είναι ξεκάθαρο: πώς μπορούν οι χρήστες, οι κυβερνήσεις και η κοινωνία να εμπιστευθούν μια βιομηχανία που μας παραπλανά σκόπιμα, συστηματικά και ξεδιάντροπα; Ποιος και με ποιο τρόπο θα μπορέσει να φέρει βασικές συνθήκες διαφάνειας απέναντι στη στρατηγική διόγκωση των δυνατοτήτων;
του Αντώνη Μαυρόπουλου

Η τεχνητή νοημοσύνη πλασάρεται σήμερα ως η δύναμη που θα αλλάξει τον κόσμο, από την επιστήμη και την ιατρική μέχρι την ψυχαγωγία και την εκπαίδευση. Συχνά όμως, πίσω από τις θριαμβευτικές ανακοινώσεις και τις εντυπωσιακές παρουσιάσεις, κρύβεται μια πολύ διαφορετική πραγματικότητα: οι ίδιες οι εταιρείες που ηγούνται αυτής της τεχνολογικής επανάστασης παραπλανούν απολύτως συνειδητά τους χρήστες τους. Κι αν έπρεπε να διαλέξουμε ένα αντιπροσωπευτικό παράδειγμα για να το αποδείξουμε, αυτό θα ήταν τα διαγράμματα που στις αρχές Αυγούστου του 2025 παρουσίασαν η OpenAI και η Anthropic, σε επίσημες εταιρικές παρουσιάσεις.

Στην παρουσίαση του ChatGPT-5, στις 6/8/2025, το κοινό αντίκρισε ένα διάγραμμα όπου το 52,8% εμφανιζόταν οπτικά μεγαλύτερο από το 69,1%. Επιπλέον η στήλη που απεικόνιζε το 69,1% ήταν ακριβώς ίδια σε μέγεθος με το 30,8%. Σε ένα άλλο σημείο, μια στήλη που αντιπροσώπευε το 50% ήταν μικρότερη από εκείνη του 47,4%. Οι αριθμοί δεν ταιριάζανε με τα γραφήματα. Το κοινό γέλασε, τα social media πήραν φωτιά, και τα memes για «Εγκλήματα Διαγραμμάτων» (chart crimes) πλημμύρισαν το Χ (πρώην Twitter) και αποτέλεσαν βασικό υλικό στη γνωστή σειρά podcast Limitless. Στελέχη της OpenAI μίλησαν για «λάθος της στιγμής» και «βιασύνη» στη δημιουργία του εποπτικού υλικού, ωστόσο η εκτίμηση πολλών από όσους είδαν την παρουσίαση ήταν σαφής: τα διαγράμματα είχαν φτιαχτεί από το πολυδιαφημιζόμενο ChatGPT-5, που με τον τρόπο αυτό αποδείκνυε την ανεπάρκεια του.

Μερικές μέρες αργότερα, ήταν η σειρά της εταιρείας Anthropic να εκτεθεί στην προσπάθεια της να δημιουργήσει λανθασμένες εντυπώσεις. Στην παρουσίαση της νέας έκδοσης του Claude, το διάγραμμα σύγκρισης της ακρίβειας του νέου μοντέλου με το παλιό έδειχνε ότι το νέο μοντέλο είχε ακρίβεια 74,5% έναντι 72,5% του προηγούμενου, μία βελτίωση κατά 2%. Για να φανεί αυτή η υποτυπώδης βελτίωση μεγαλύτερη, το διάγραμμα σύγκρισης των δύο μοντέλων ξεκινούσε τη στήλη όχι από το μηδέν αλλά από το 50%. Μια διαφορά 2% μονάδων μεγεθύνονταν τεχνητά και παρουσιαζόταν σαν ένα σημαντικό τεχνολογικό άλμα, ενώ στην πραγματικότητα ήταν μια σχεδόν αμελητέα βελτίωση. Η Anthropic απέφυγε να δώσει σαφείς εξηγήσεις. Ωστόσο, καθηγητές και ερευνητές εξειδικευμένοι στην οπτικοποίηση δεδομένων ήταν κατηγορηματικοί: πρόκειται για κραυγαλέο παράδειγμα παραπλάνησης και δημιουργίας εσφαλμένων εντυπώσεων.

Η δύναμη της εικόνας

Γιατί όμως οι εταιρείες επιμένουν σε τέτοιες πρακτικές; Η γρήγορη απάντηση είναι ότι τα διαγράμματα λειτουργούν ως σύμβολα κύρους και εξουσίας. Έχουν τη δύναμη να μετατρέπουν ένα αμφίβολο στατιστικό εύρημα σε «επιστημονικό γεγονός», ακριβώς επειδή ντύνονται με την αυθεντία της οπτικοποίησης. Έρευνες έχουν δείξει ότι τα γραφήματα, ακόμα και όταν είναι κακοσχεδιασμένα, προσδίδουν κύρος και αντικειμενικότητα στην παρουσίαση. Οι θεατές τα εμπιστεύονται περισσότερο από το γυμνό κείμενο. Όπως έδειξε ο Alberto Cairo στο περίφημο βιβλίο του «Πως τα διαγράμματα λένε ψέματα» (How Charts Lie), οι άνθρωποι τείνουν να εμπιστεύονται ένα νούμερο όταν αυτό ενσωματώνεται σε μια μπάρα ή μια καμπύλη, περισσότερο από ό,τι αν τους παρουσιαστεί σε απλό κείμενο ή πίνακα.

Η τεχνική δεν είναι καινούρια. Οι μεγάλες εταιρείες υψηλής τεχνολογίας χρησιμοποιούν εδώ και χρόνια γραφήματα χωρίς κλίμακα ή με άξονες που ξεκινούν από αυθαίρετα σημεία, ώστε να εμφανίζουν «εκρηκτική ανάπτυξη» εκεί όπου στην πραγματικότητα υπάρχουν μικρές διακυμάνσεις. Χαρακτηριστικό παράδειγμα είναι τα διαγράμματα της Apple για τις πωλήσεις Apple Watch, όπου η απουσία ποσοτικών αξόνων μετέτρεπε κάθε ανιούσα καμπύλη σε «success story», ακόμη κι αν τα μεγέθη παρέμεναν σχετικά περιορισμένα.

Αντίστοιχα, σε παρουσιάσεις start-up που αναζητούν χρηματοδότηση, τα γραφήματα της «εκθετικής καμπύλης» έχουν γίνει σχεδόν υποχρεωτικό οπτικό αξεσουάρ. Η λεπτομέρεια ότι η κλίμακα έχει επιλεγεί έτσι ώστε να μεγεθύνει τις τάσεις ανάπτυξης χάνεται μέσα στη γενική εντύπωση του «μεγάλου άλματος». Στην περίπτωση της Anthropic, μια σχεδόν αμελητέα στατιστική βελτίωση στην απόδοση των μοντέλων τους μετατράπηκε, μέσω αυτής της τεχνικής, σε εικόνα «επαναστατικής τομής».

Με άλλα λόγια, τα διαγράμματα δεν απεικονίζουν απλώς την πραγματικότητα: την κατασκευάζουν. Και σε μια αγορά όπου το κεφάλαιο και η εμπιστοσύνη είναι τα πιο πολύτιμα νομίσματα, η εντύπωση γίνεται σημαντικότερη από το πραγματικό αποτέλεσμα.

Μία βιομηχανία της υπερβολής

Το φαινόμενο δεν περιορίζεται στα διαγράμματα. Πολλές εταιρείες τεχνητής νοημοσύνης έχουν πιαστεί στα πράσα να φουσκώνουν συστηματικά τις επιδόσεις τους, συχνά χωρίς καμία επιστημονική τεκμηρίωση. Εταιρείες που πουλούν εργαλεία «ανίχνευσης deepfakes» διαφημίζουν ακρίβεια της τάξης του 99%, ενώ στην πράξη αποτυγχάνουν να αναγνωρίσουν βίντεο που έχουν παραποιηθεί με στοιχειώδεις τεχνικές.

Η Meta (μητρική του Facebook) κατηγορήθηκε ανοικτά, χωρίς να δώσει καμία απάντηση, ότι «μαγείρεψε» τους δείκτες της ώστε να φαίνεται ότι το δικό της μοντέλο προηγείται στον ανταγωνισμό. Το ίδιο μοτίβο εμφανίστηκε και με άλλες εταιρείες της Σίλικον Βάλεϊ. Aυτόνομα οχήματα που ήταν αψεγάδιαστα σε επιδείξεις, αλλά στον δρόμο αδυνατούσαν να χειριστούν βασικές συνθήκες. Ακόμα χειρότερη ήταν η παταγώδης αποτυχία της Theranos, όπου η υπόσχεση για επαναστατικές διαγνώσεις αίματος κατέρρευσε επειδή δεν υπήρχε πίσω της καμία πραγματική τεχνολογική ανακάλυψη.

Στο ίδιο πνεύμα, η διαμάχη ανάμεσα σε Google και OpenAI γύρω από τον πρόσφατο Διεθνή Μαθηματικό Διαγωνισμό (IMO) δεν ήταν παρά ένας αγώνας εντυπώσεων: και οι δύο εταιρείες έσπευσαν να πλασαριστούν ως «νικητές», προτού υπάρξει επίσημη επικύρωση. Στόχος τους ήταν να να ενισχυθεί η εικόνα τους στα μάτια των επενδυτών και της αγοράς, τα υπόλοιπα ήταν «μικρές λεπτομέρειες».

Η διόγκωση των δυνατοτήτων δεν είναι τυχαία. Είναι στρατηγική επιλογή που στοχεύει στην εμπορευματοποίηση και τη στρατηγική προσέλκυση επενδύσεων. Με τα σωστά διαγράμματα, τις κατάλληλες λέξεις και μία καλοσχεδιασμένη σκηνοθεσία, μια εταιρεία μπορεί να παρουσιάσει το προϊόν της ως την αιχμή της τεχνολογικής εξέλιξης, ακόμη κι αν η πραγματικότητα είναι πολύ πιο ταπεινή και γκρίζα. Αυτό εξηγεί και την επιμονή σε παραπλανητικά γραφήματα: οι μπάρες που «κρύβουν» τη μικρή διαφορά, οι καμπύλες που εκτινάσσονται χωρίς να φαίνονται οι πραγματικοί αριθμοί, οι «άξονες» που ξεκινούν από όπου βολεύει. Είναι η οπτικοποιημένη γλώσσα της υπερβολής.

Η λογική είναι η ίδια που οδήγησε σε όλες τις μεγάλες τεχνολογικές φούσκες: εντυπωσιακές υποσχέσεις, διογκωμένες δυνατότητες, και μια διαρκής πίεση να πειστεί η κοινωνία ότι «αυτό είναι το μέλλον». Κι όπως συνέβη με τις φούσκες του παρελθόντος, η κατάρρευση μπορεί να έρθει ξαφνικά, αφήνοντας πίσω της οικονομικά και κοινωνικά συντρίμμια.

Το τίμημα όμως αυτής της παραπλάνησης, ακόμα και αν δε σκάσει η φούσκα, δεν είναι θεωρητικό. Οι χρήστες συχνά πιστεύουν ότι έχουν μπροστά τους εργαλεία που μπορούν να αντικαταστήσουν την ανθρώπινη κρίση. Δικηγόροι, γιατροί, δημοσιογράφοι, εκπαιδευτικοί και άλλοι κινδυνεύουν να θεωρήσουν τα μεγάλα γλωσσικά μοντέλα πολύ πιο ικανά από όσο είναι στην πραγματικότητα. Όταν οι εταιρείες φουσκώνουν την αξιοπιστία, υποτιμούν τα ρίσκα: τις ψευδείς απαντήσεις, τα επικίνδυνα λάθη, τις προκαταλήψεις που αναπαράγονται μέσα από τους αλγόριθμους.

Επιπλέον, η «υπερβολική αισιοδοξία» γύρω από τις δυνατότητες της της τεχνητής νοημοσύνης δημιουργεί νέους κοινωνικούς – πολιτικούς κινδύνους. Αν οι κυβερνήσεις και οι θεσμοί στηρίζονται σε υπερβολικά φουσκωμένες προσδοκίες, οι πολιτικές που θα υιοθετήσουν μπορεί να είναι πρόχειρες, ανεπαρκείς ή επικίνδυνες. Ακόμα χειρότερα, κυβερνήσεις και εταιρείες μπορεί να επενδύσουν δισεκατομμύρια σε υποσχέσεις που δεν θα υλοποιηθούν ποτέ, αφήνοντας κρίσιμες υποδομές εκτεθειμένες στο έλεος μοντέλων που κανείς δε γνωρίζει την ακρίβεια και την ευστάθεια τους σε κρίσιμες συνθήκες.

Το ερώτημα που πρέπει να τεθεί σε όλο το εύρος των εφαρμογών της τεχνητής νοημοσύνης είναι ξεκάθαρο: πώς μπορούν οι χρήστες, οι κυβερνήσεις και η κοινωνία να εμπιστευθούν μια βιομηχανία που μας παραπλανά σκόπιμα, συστηματικά και ξεδιάντροπα; Ποιος και με ποιο τρόπο θα μπορέσει να φέρει βασικές συνθήκες διαφάνειας απέναντι στη στρατηγική διόγκωση των δυνατοτήτων; Η μοναδική απάντηση, πέραν της κριτικής στάσης και σκέψης του κάθε χρήστη, είναι η πολιτική διαπάλη γύρω από το ποιες εφαρμογές τεχνητής νοημοσύνης χρειαζόμαστε, πότε και με ποιους όρους πρέπει να εφαρμόζονται και πως ακριβώς αυτές θα οριοθετούνται κοινωνικά και πολιτικά. Ακριβώς το αντίθετο δηλαδή από την κατάσταση που ζούμε τώρα.

Διόγκωση και «φούσκα»

Η υπερβολή στην παρουσίαση των δυνατοτήτων της τεχνητής νοημοσύνης δεν περιορίζεται στα παραπλανητικά διαγράμματα. Ολοένα και περισσότεροι αναλυτές προειδοποιούν ότι η ίδια λογική της διόγκωσης, η δημιουργία εντυπώσεων πέρα από την πραγματικότητα, μεταφέρεται και στο χρηματοπιστωτικό επίπεδο, απειλώντας να δημιουργήσει μια νέα «φούσκα» τεχνητής νοημοσύνης στις ΗΠΑ. Και όλα δείχνουν ότι η κορύφωση αυτού του κύκλου μπορεί να έρθει μέσα στα επόμενα δύο χρόνια, το 2026 ή το 2027.

Φαίνεται ότι υπάρχουν πολλές αναλογίες με τη φούσκα του dot.com, που κορυφώθηκε στα τέλη της δεκαετίας του 1990 και έσκασε το 2000-2001. Η φούσκα αυτή υπήρξε το αποτέλεσμα της υπεραισιοδοξίας και της στρατηγικής παραπλάνησης γύρω από το διαδίκτυο και τις νέες ψηφιακές αγορές. Επενδύσεις δισεκατομμυρίων κατευθύνθηκαν σε εταιρείες χωρίς βιώσιμα επιχειρηματικά μοντέλα, με βάση μόνο την υπόσχεση μιας «νέας οικονομίας» που θα άλλαζε τα πάντα. Όταν η πραγματικότητα διέψευσε τις φουσκωμένες προβλέψεις, η κατάρρευση προκάλεσε μαζικές χρεοκοπίες, απώλειες κεφαλαίων και κοινωνική δυσπιστία απέναντι στην τεχνολογία. Από εκεί προέκυψαν ορισμένα κάμποσα χρήσιμα μαθήματα, από τα οποία επιτρέψτε μου να ξεχωρίσω δύο. Πρώτον, η βιωσιμότητα ενός επιχειρηματικού μοντέλου είναι κάτι τελείως διαφορετικό από το πόσο λαμπερό είναι ή παρουσιάζεται το μοντέλο. Δεύτερον, η υπερσυγκέντρωση κεφαλαίων σε λίγες εταιρείες, χωρίς πραγματικό αντίκρισμα, εγκυμονεί σημαντικούς κινδύνους κατάρρευσης.

Όταν έσκασε φούσκα του dot.com, το 2000–2001, η συνολική κεφαλαιοποίηση των εταιρειών τεχνολογίας κατέρρευσε κατά περίπου 5 τρισεκατομμύρια δολάρια. Ο δείκτης Nasdaq έχασε σχεδόν το 78% της αξίας του μέσα σε 18 μήνες, ενώ περισσότερες από 50% των dot.com εταιρειών, που είχαν ιδρυθεί στα τέλη της δεκαετίας του ’90 ,χρεοκόπησαν. Οι απολύσεις ήταν μαζικές: υπολογίζεται ότι πάνω από 300.000 εργαζόμενοι στις ΗΠΑ έχασαν τις δουλειές τους σε τεχνολογικές επιχειρήσεις, ενώ εκατομμύρια μικροεπενδυτές είδαν τις αποταμιεύσεις τους να εξαφανίζονται. Παράλληλα, η ροή επενδυτικών κεφαλαίων προς τον κλάδο μειώθηκε δραματικά, από περίπου 100 δισ. δολάρια το 2000 σε λιγότερα από 20 δισ. το 2002.

Η σημερινή φρενίτιδα γύρω από την Τεχνητή Νοημοσύνη προοιωνίζεται μια φούσκα ακόμη μεγαλύτερης κλίμακας: τα κεφάλαια που επενδύονται είναι πολλαπλάσια, οι κοινωνικές και πολιτικές προσδοκίες πολύ εντονότερες, και οι κίνδυνοι από την αποτυχία, όχι μόνο οικονομικοί αλλά και θεσμικοί, εργασιακοί και πολιτισμικοί, δυνητικά πολύ σοβαρότεροι. Και όλα αυτά σε πείσμα της πραγματικότητας.

Ορισμένες έρευνες υποδεικνύουν ότι τα νεότερα μοντέλα μπορεί και να χειροτερεύουν από άποψη επιδόσεων σε κάποιους τομείς, δημιουργώντας «παραισθήσεις» (halucinations) πιο συχνά από τις παλαιότερες εκδόσεις. Μια μελέτη μάλιστα διαπίστωσε ότι όσο περισσότερο «σκέφτονται» αυτά τα νέα μοντέλα συλλογισμού, τόσο περισσότερο επιδεινώνεται η απόδοσή τους σε συγκεκριμένα πεδία. Άλλες έρευνες αποδεικνύουν ότι ο ψηφιακός χυλός κειμένων και εικόνων Τεχνητής Νοημοσύνης που πλημμυρίζει το διαδίκτυο «ρυπαίνει» ολοένα και περισσότερο τα δεδομένα εκπαίδευσης της Τεχνητής Νοημοσύνης, υπονομεύοντας την αξιοπιστία τους.

Σύμφωνα με πρόσφατη έρευνα του MIT (Ιούλιος 2025), περίπου το 95% των πιλοτικών εταιρικών έργων που βασίζονται σε μεγάλα γλωσσικά μοντέλα δεν αποδίδουν κανένα ουσιαστικό αποτέλεσμα. Παρά το γεγονός ότι δισεκατομμύρια δολάρια ρέουν στην αγορά, η συντριπτική πλειονότητα των εφαρμογών αποτυγχάνει να περάσει από το στάδιο της δοκιμής στην πραγματική παραγωγική αξιοποίηση. Το στοιχείο αυτό θυμίζει έντονα προηγούμενες τεχνολογικές φούσκες, όπου οι υποσχέσεις ξεπερνούσαν κατά πολύ τις πραγματικές δυνατότητες.

Στη Wall Street, οι ανησυχίες είναι διάχυτες. Ο επικεφαλής οικονομολόγος της Apollo, Torsten Sløk, έχει συγκρίνει τις αποτιμήσεις των 10 κορυφαίων εταιρειών του δείκτη S&P 500 με τα επίπεδα της dot.com φούσκας, επισημαίνοντας ότι οι σημερινές τιμές είναι ακόμη πιο «φουσκωμένες». Η UBS, από την πλευρά της, υπολογίζει πιθανότητα 25% για μια πλήρη έκρηξη της φούσκας τεχνητής νοημοσύνης έως το τέλος του 2026.

Οι επενδύσεις είναι κολοσσιαίες. Μόνο φέτος, οι Google, Microsoft, Amazon και Meta έχουν δεσμεύσει πάνω από 750 δισ. δολάρια για υποδομές τεχνητής νοημοσύνης, ενώ ως το 2029 το ποσό αυτό μπορεί να αγγίξει τα 3 τρισ. δολάρια. Οι Financial Times περιγράφουν το φαινόμενο ως «υστερία» γύρω από μια τεχνολογία που υπόσχεται πολλά αλλά δεν έχει ακόμη αποδείξει ότι μπορεί να αποδώσει σε κλίμακα.

Αν οι μεγάλες προσδοκίες δεν επιβεβαιωθούν, η κατάρρευση της φούσκας δεν θα πλήξει μόνο τις ίδιες τις εταιρείες αλλά και το σύνολο της αγοράς, παρασέρνοντας κεφάλαια, επενδυτές και θέσεις εργασίας. Όπως συνέβη με τη φούσκα των dot-com, έτσι και τώρα, η υστερία στη δημιουργία εντυπώσεων δημιουργεί μία συλλογική επενδυτική ψύχωση υπεραισιοδοξίας για τις πραγματικές δυνατότητες των μοντέλων. Και η εικονική διόγκωση των δυνατοτήτων των μεγάλων γλωσσικών μοντέλων να οδηγήσει σε μια πραγματική οικονομική καταστροφή με μεγάλες κοινωνικές συνέπειες.

Το μάθημα από τα παραπλανητικά και λάθος διαγράμματα της OpenAI και της Anthropic είναι πιο σοβαρό από όσο φαίνεται. Η τεχνητή νοημοσύνη πρέπει να πουλάει για να αποδώσουν οι τεράστιες επενδύσεις, και για να πουλήσει πρέπει να φανεί πολύ πιο ισχυρή απ’ όσο πραγματικά είναι. Ας κρατήσουμε κριτική ματιά και σκέψη. Να θυμόμαστε ότι τα μάτια μας μπορεί και να μας ξεγελάσουν, ειδικά όταν όλα σκηνοθετούνται με αυτόν ακριβώς τον στόχο.

Ο Αντώνης Μαυρόπουλος είναι σύμβουλος κυκλικής οικονομίας και συγγραφέας του βιβλίου «Τεχνητή Νοημοσύνη – Άνθρωπος, Φύση, Μηχανές» (εκδόσεις Τόπος)