Μπορεί να ακούγεται σαν αστείο ή σαν πείραμα χωρίς ιδιαίτερη σημασία, όμως η ιστορία της «bixonimania», που περιγράφηκε στο επιστημονικό περιοδικό Nature αποκαλύπτει ένα πολύ πιο σοβαρό πρόβλημα: πόσο εύκολα η τεχνητή νοημοσύνη μπορεί να υιοθετήσει και να διαδώσει ψευδείς πληροφορίες, ακόμη και όταν αυτές είναι γεμάτες προφανή σημάδια ότι είναι κατασκευασμένες.
Όλα ξεκινούν από κάτι απολύτως καθημερινό. Ερεθισμένα μάτια, φαγούρα, ένα ελαφρύ κοκκίνισμα στα βλέφαρα, συμπτώματα που οι περισσότεροι αποδίδουν στην πολύωρη χρήση οθονών και στην έκθεση στο μπλε φως. Ωστόσο, μέσα στους τελευταίους 18 μήνες, αν κάποιος πληκτρολογούσε αυτά τα συμπτώματα σε δημοφιλή chatbots και ζητούσε μια εξήγηση, υπήρχε πιθανότητα να λάβει μια παράξενη διάγνωση: «bixonimania».
Η bixonimania είναι μια πάθηση που δεν υπάρχει. Δεν καταγράφεται πουθενά στην ιατρική βιβλιογραφία, γιατί αποτελεί μια επινόηση της ερευνήτριας Almira Osmanovic Thunström από το Πανεπιστήμιο του Γκέτεμποργκ. Η επιστήμονας θέλησε να δοκιμάσει στην πράξη αν τα μεγάλα γλωσσικά μοντέλα μπορούν να «καταπιούν» παραπληροφόρηση και να την επιστρέψουν ως αξιόπιστη γνώση. Όπως η ίδια εξηγεί στο Nature, στόχος της ήταν να δει αν μπορεί να δημιουργήσει «μια ιατρική κατάσταση που δεν υπάρχει σε καμία βάση δεδομένων».
Το πείραμά της όχι μόνο πέτυχε, αλλά πέτυχε υπερβολικά καλά. Μέσα σε λίγες εβδομάδες από τη δημοσίευση των πρώτων αναφορών, μεγάλα μοντέλα τεχνητής νοημοσύνης άρχισαν να αντιμετωπίζουν τη bixonimania σαν πραγματική ασθένεια.
Η κατασκευή της ψευδούς αυτής πάθησης ήταν μεθοδική. Στις 15 Μαρτίου 2024 εμφανίστηκαν δύο σχετικά άρθρα στο Medium. Στη συνέχεια, στις 26 Απριλίου και στις 6 Μαΐου, δημοσιεύτηκαν δύο preprints στην ακαδημαϊκή πλατφόρμα SciProfiles, των οποίων ως συγγραφέας φερόταν ένας ερευνητής με το όνομα Lazljiv Izgubljenovic, ένα εντελώς φανταστικό πρόσωπο με φωτογραφία που είχε δημιουργηθεί από AI.
Κι όμως, τα στοιχεία ότι επρόκειτο για απάτη ήταν σχεδόν κραυγαλέα. Ο συγγραφέας «ερευνητής» εργαζόταν σε ένα ανύπαρκτο πανεπιστήμιο, το Asteria Horizon University, σε μια επίσης ανύπαρκτη πόλη, τη Nova City της Καλιφόρνια. Στις ευχαριστίες γινόταν αναφορά σε φανταστικά ιδρύματα όπως η Starfleet Academy και το USS Enterprise, ενώ η χρηματοδότηση υποτίθεται ότι προερχόταν από οργανισμούς όπως το «Professor Sideshow Bob Foundation», το «University of Fellowship of the Ring» και το «Galactic Triad».
Ακόμη και μέσα στο ίδιο το κείμενο υπήρχαν ξεκάθαρες δηλώσεις όπως «αυτό το άρθρο είναι εξ ολοκλήρου επινοημένο» και ότι «στρατολογήθηκαν πενήντα συμμετέχοντες ηλικίας 20 έως 50 ετών» και αυτοί αποκυήματα της φαντασίας.
Παρά όλα αυτά, τα AI μοντέλα δεν εντόπισαν την απάτη. Αντίθετα, άρχισαν να την αναπαράγουν. Στις 13 Απριλίου 2024, το Copilot της Microsoft χαρακτήριζε τη bixonimania «ενδιαφέρουσα και σχετικά σπάνια πάθηση», ενώ την ίδια ημέρα το Gemini της Google την περιέγραφε ως κατάσταση που προκαλείται από υπερβολική έκθεση στο μπλε φως και σύστηνε επίσκεψη σε οφθαλμίατρο. Στις 27 Απριλίου, η μηχανή Perplexity έδινε μέχρι και εκτιμήσεις επιπολασμού, 1 στους 90.000 ανθρώπους, ενώ το ChatGPT απαντούσε σε χρήστες που ρωτούσαν αν τα συμπτώματά τους αντιστοιχούσαν στη συγκεκριμένη «ασθένεια». Σε ορισμένες περιπτώσεις οι απαντήσεις δίνονταν επειδή οι χρήστες ρωτούσαν άμεσα για τη bixonimania, ενώ σε άλλες προέκυπταν απλώς από περιγραφές συμπτωμάτων όπως μαύρων κύκλων γύρω από τα μάτια.
Η υπόθεση αυτή ανησύχησε ιδιαίτερα ειδικούς στην παραπληροφόρηση. Η Alex Ruani από το University College London σημειώνει ότι, όσο αστεία κι αν φαίνεται η συγκεκριμένη περίπτωση, αναδεικνύει ένα πολύ πιο σοβαρό πρόβλημα. Αν δεν καταφέρνουν ούτε τα επιστημονικά συστήματα ούτε οι διαδικασίες που τα υποστηρίζουν να εντοπίσουν τέτοιες «εισβολές», τότε υπάρχει σοβαρός κίνδυνος. Όπως λέει χαρακτηριστικά, πρόκειται για «masterclass» στο πώς λειτουργεί η παραπληροφόρηση. Ακόμη πιο ανησυχητικό είναι ότι ορισμένοι ερευνητές βασίζονται σε αναφορές που δημιουργούνται από την τεχνητή νοημοσύνη χωρίς να διαβάζουν τις υποκείμενες εργασίες.
Η παραπληροφόρηση στο διαδίκτυο δεν είναι κάτι νέο, εταιρείες όπως η Google παλεύουν εδώ και χρόνια με ψεύτικο ή παραπλανητικό περιεχόμενο. Ωστόσο, τα μεγάλα γλωσσικά μοντέλα φαίνεται να δυσκολεύονται περισσότερο να φιλτράρουν τέτοιες πληροφορίες, ειδικά όταν αυτές μοιάζουν «επιστημονικές».
Με την πάροδο του χρόνου, κάποια μοντέλα άρχισαν να δείχνουν μεγαλύτερη επιφύλαξη ως προς την υποτιθέμενη πάθηση. Για παράδειγμα, τον Μάρτιο του 2026 το ChatGPT σε μια περίπτωση χαρακτήρισε τη bixonimania πιθανώς ψευδοεπιστημονική ή επινοημένη. Λίγες ημέρες αργότερα όμως, σε διαφορετική διατύπωση ερώτησης, την περιέγραψε ως «νέο υποτύπο» μιας υπαρκτής πάθησης που σχετίζεται με μαύρους κύκλους κάτω από τα μάτια. Αντίστοιχα, το Copilot της Microsoft ανέφερε ότι δεν είναι ευρέως αναγνωρισμένη διάγνωση αλλά εμφανίζεται σε «αναδυόμενες μελέτες», ενώ το Perplexity την χαρακτήρισε «αναδυόμενο όρο» στις αρχές του 2026.
Ένας εκπρόσωπος της OpenAI δήλωσε ότι τα τρέχοντα μοντέλα παρέχουν ασφαλέστερες και ακριβέστερες πληροφορίες για την υγεία από τις προηγούμενες εκδόσεις. Η Google δήλωσε επίσης ότι οι προηγούμενες απαντήσεις προήλθαν από παλαιότερα μοντέλα και ότι τα εργαλεία τεχνητής νοημοσύνης της ενθαρρύνουν τους χρήστες να επαληθεύουν ευαίσθητες πληροφορίες με επαγγελματίες, ειδικά σε θέματα υγείας.
Ένα βασικό πρόβλημα είναι ότι τα αποτελέσματα της AI εξαρτώνται έντονα από το πώς τίθεται μια ερώτηση. Αν κάποιος αναζητήσει απλώς «bixonimania», μπορεί να τη δει να παρουσιάζεται ως πραγματική. Αν ρωτήσει «είναι αληθινή;», το ίδιο σύστημα μπορεί να απαντήσει ότι δεν είναι.
Ο γιατρός και ερευνητής Mahmud Omar επισημαίνει ότι η ταχύτητα με την οποία εξελίσσονται τα AI μοντέλα καθιστά δύσκολη την ύπαρξη μιας ο σταθερής μεθοδολογία ελέγχου τους. Επιπλέον, σε έρευνά του διαπίστωσε ότι τα μοντέλα είναι πιο επιρρεπή σε «παραισθήσεις», δηλαδή στην επινόηση ή στην ενίσχυση ψευδών πληροφοριών, όταν το περιεχόμενο έχει μορφή επαγγελματικού ιατρικού κειμένου, όπως μια κλινική αναφορά ή ένα επιστημονικό άρθρο, σε σύγκριση με απλές αναρτήσεις στα social media.
Η επίδραση του πειράματος δεν περιορίστηκε στα chatbots. Η bixonimania πέρασε και σε πραγματική επιστημονική βιβλιογραφία. Μια μελέτη που δημοσιεύτηκε στο Cureus την ανέφερε ως «αναδυόμενη μορφή» μιας υπαρκτής πάθησης που σχετίζεται με το μπλε φως. Το άρθρο αποσύρθηκε στις 30 Μαρτίου 2026, όταν διαπιστώθηκε ότι περιείχε αναφορές σε ανύπαρκτη ασθένεια. Η επίσημη αιτιολόγηση ανέφερε ότι η παρουσία άσχετων και ψευδών αναφορών υπονόμευσε την αξιοπιστία του έργου, αν και οι συγγραφείς διαφώνησαν με την απόφαση.
Το γεγονός ότι ακόμη και άνθρωποι και όχι μόνο μηχανές παρασύρθηκαν από την κατασκευή αυτή είναι ίσως το πιο ανησυχητικό στοιχείο. Όπως λέει η Ruani, το πρόβλημα ξεπερνά την τεχνητή νοημοσύνη και αγγίζει την ίδια την εμπιστοσύνη μας στην επιστημονική γνώση. «Πρέπει να προστατεύσουμε την εμπιστοσύνη σαν χρυσό. Αυτή τη στιγμή, επικρατεί χάος», λέει.
H Osmanovic Thunström δεν είναι η πρώτη που δοκιμάζει τι παράγει η Τεχνητή Νοημοσύνη όταν τροφοδοτείται με ψευδείς ακαδημαϊκές πληροφορίες. Η Elisabeth Bik, Ολλανδή μικροβιολόγος και σύμβουλος επιστημονικής ακεραιότητας, δήλωσε ότι οι ερευνητές έχουν δημιουργήσει ακόμη και ψεύτικα βιβλία και εργασίες για να αυξήσουν τον αριθμό των αναφορών τους στο Google Scholar.
Ωστόσο, η ίδια η Osmanovic Thunström είχε επιφυλάξεις πριν ξεκινήσει το πείραμα, φοβούμενη ότι μπορεί να προκαλέσει περισσότερη ζημιά παρά όφελος. Για αυτό συμβουλεύτηκε ειδικό σε θέματα βιοηθικής και επέλεξε μια σχετικά «ακίνδυνη» πάθηση, ώστε να περιορίσει τις συνέπειες.
Όμως το αποτέλεσμα έδειξε ξεκάθαρα ότι σε έναν κόσμο όπου η τεχνητή νοημοσύνη βασίζεται σε τεράστιους όγκους δεδομένων από το διαδίκτυο, ακόμη και μια προφανώς ψεύτικη ιστορία μπορεί όχι μόνο να «ζωντανέψει», αλλά και να πείσει.





























