Στις 28 Φεβρουαρίου 2026, ενώ τα πρώτα κύματα αμερικανικών και ισραηλινών βομβαρδισμών σάρωναν το Ιράν, ένας αλγόριθμος υπολόγιζε συντεταγμένες στόχου. Σύμφωνα με δημοσιευμένες αναλύσεις, οι πληροφορίες που δόθηκαν στον αλγόριθμο ήταν εσφαλμένες, το σήμα θέσης ελαφρά μετατοπισμένο, η εποπτεία ανθρώπου ελάχιστη.
Αποτέλεσμα: ένας πύραυλος Tomahawk χτύπησε το κτίριο του δημοτικού σχολείου Shajarah Tayyebeh στο Minab. Πάνω από 160 παιδιά, τα περισσότερα μαθήτριες δημοτικού, πέθαναν ακαριαία, σε ένα από τα πιο φρικαλέα και απεχθή εγκλήματα που έχει διαπράξει η στρατιωτική μηχανή των ΗΠΑ.
Το επίσημο αφήγημα του Πενταγώνου μιλάει για ατύχημα και λάθος στόχευση. Κρατάω, όπως και πολλοί άλλοι σκεπτόμενοι άνθρωποι, σοβαρές επιφυλάξεις για αυτό. Αν όμως το Πεντάγωνο έχει δίκιο, τότε δεν πρόκειται για ατύχημα αλλά για την αναπόφευκτη κατάληξη ενός συστήματος που σχεδιάστηκε για να σκοτώνει σε βιομηχανική κλίμακα. Μιλάμε για ένα σύστημα που βελτιστοποιείται διαρκώς για να επιτυγχάνει περισσότερους θανάτους, σε μικρότερο χρόνο και με μικρότερο κόστος, μία μηχανή σφαγής που συστηματικά και μεθοδικά αδιαφορεί για το αν ο στόχος είναι παιδί ή άμαχος και προτεραιοποιεί σε απόλυτο βαθμό τη ζημιά στον όποιο αντίπαλο. Η βιομηχανία θανάτου απογειώνεται με τα φτερά της τεχνητής νοημοσύνης. Η τεχνητή νοημοσύνη προσγειώνεται με κρότο στο πεδίο των μαχών και μετατρέπεται σε βιομηχανία καταστροφής.
Πέντε επίπεδα εμπλοκής
Από τις πρώτες ώρες των επιχειρήσεων, το αμερικανοϊσραηλινό στρατιωτικό – βιομηχανικό σύμπλεγμα ανέπτυξε ένα οικοσύστημα πολεμικής τεχνητής νοημοσύνης σε πέντε επίπεδα που λειτουργούν ταυτόχρονα και αδιάκοπα. Η Γάζα ήταν το εργαστήριο μαζικής δοκιμής και βελτιστοποίησης του εν λόγω οικοσυστήματος, το Ιράν είναι η πρώτη ολοκληρωμένη εφαρμογή του σε ευρεία γεωγραφική κλίμακα.
Σε ένα πρώτο επίπεδο, μεγάλα γλωσσικά μοντέλα είχαν ήδη ενσωματωθεί σε δίκτυα για ανάλυση πληροφοριών, στρατηγικό επιχειρησιακό σχεδιασμό και επιχειρήσεις κυβερνοπολέμου από το 2023, ενώ χρησιμοποιήθηκαν ως βασικό εργαλείο στις ενέργειες προετοιμασίας της απαγωγής Μαδούρο. Στο δεύτερο επίπεδο, αυτό της προετοιμασίας και της συλλογής δεδομένων, κάμερες τροχαίας στην Τεχεράνη χακαρίστηκαν και χρησιμοποιήθηκαν για τον εντοπισμό κινήσεων ηγετικών στελεχών και πιθανών στόχων, ένα εγχείρημα που θα ήταν αδύνατο χωρίς αλγοριθμική επεξεργασία εικόνας σε πραγματικό χρόνο. Στο τρίτο επίπεδο, αυτό της στόχευσης, συστήματα μηχανικής μάθησης αναλύουν σε πραγματικό χρόνο δορυφορικές εικόνες, σήματα κινητής τηλεφωνίας, κίνηση οχημάτων και δεδομένα κοινωνικών δικτύων για να παράγουν λίστες «υποψήφιων στόχων» που ενημερώνονται κάθε λεπτό. Το Πεντάγωνο επιβεβαίωσε επίσημα στις 11 Μαρτίου 2026 τη χρήση προχωρημένων εργαλείων τεχνητής νοημοσύνης που αναλύουν τεράστια σύνολα δεδομένων σε μερικά δευτερόλεπτα, ολοκληρώνοντας σχεδόν ακαριαία δουλειά που έκαναν δεκάδες άνθρωποι σε ώρες ή μέρες. Στο τέταρτο επίπεδο της αεροπορικής ισχύος, αυτόνομα drone εξοπλισμένα με αλγορίθμους αναγνώρισης στόχου επιλέγουν στόχους χωρίς ανθρώπινη επέμβαση στην τελική φάση της επίθεσης. Τέλος, στο πέμπτο επίπεδο των ψυχολογικών επιχειρήσεων, χιλιάδες αναρτήσεις που έχουν δημιουργηθεί από εργαλεία τεχνητής νοημοσύνης κυκλοφορούν ταυτόχρονα στα ιρανικά κοινωνικά δίκτυα, σχεδιασμένα να αποσταθεροποιήσουν την εσωτερική συνοχή του καθεστώτος.
Πρόκειται για τον πρώτο πόλεμο όπου η τεχνητή νοημοσύνη είναι πλήρως ενσωματωμένη και απόλυτα λειτουργική σε όλη την αλυσίδα αποφάσεων. Σε πάρα πολλές περιπτώσεις, οι μαζικές επιθέσεις στο Ιράν έχουν αφεθεί στον αυτόματο πιλότο των προγραμμάτων τεχνητής νοημοσύνης. Και ακριβώς για αυτό το λόγο, το Ιράν στοχοποίησε και βομβάρδισε σημαντικά data centers της περιοχής. Η όποια εμπλοκή των ανθρώπων επικυρώνει εκ των υστέρων αποφάσεις που οι αλγόριθμοι έχουν ήδη λάβει.
No human in the loop
Η επίσημη αφήγηση του Πενταγώνου για τη χρήση τεχνητής νοημοσύνης στον πόλεμο επαναλαμβάνει σαν μάντρα μια φράση: «human in the loop». Ο άνθρωπος παραμένει στην αλυσίδα απόφασης, κανένα σύστημα δεν πυροβολεί χωρίς ανθρώπινη έγκριση. Είναι μια φράση συναισθηματικά κατευναστική, τεχνικά ακριβής, αλλά ουσιαστικά απολύτως κενή περιεχόμενου.
Σε ένα σύστημα στόχευσης που παράγει δεκάδες υποψήφιους στόχους ανά λεπτό, που ενσωματώνει δεδομένα από δορυφόρους, τηλεπικοινωνιακά μεταδεδομένα και αλγόριθμους συμπεριφοράς, που συνθλίβει τον κύκλο αποφάσεων σε χιλιοστά του δευτερολέπτου, η μοναδική ανθρώπινη δραστηριότητα είναι ένα δάχτυλο πάνω σε ένα κουμπί. Κάποιος άνθρωπος βλέπει σε μια οθόνη τον στόχο του αλγορίθμου και έχει πέντε δευτερόλεπτα να πατήσει «επιβεβαίωση» ή «ακύρωση». Χωρίς να γνωρίζει τι δεδομένα τροφοδότησαν αυτή την πρόταση, χωρίς να μπορεί να αξιολογήσει το ποσοστό σφάλματος, χωρίς να έχει ανεξάρτητη επαλήθευση. Στη Γάζα, το σύστημα Lavender παρήγαγε λίστες με 37.000 «υπόπτους» με δηλωμένο ποσοστό λάθους 10%. Ο αξιωματικός που «ενέκρινε» κάθε στόχο αφιέρωνε περίπου 20 δευτερόλεπτα ανά στόχο. Αυτή είναι η «ανθρώπινη εποπτεία» στην πράξη: ένας στυγνός εκτελεστής της θανατικής ποινής, βασισμένος σε αλγοριθμικό κατηγορητήριο, χωρίς ικανότητα επαλήθευσης και χωρίς χρόνο για τύψεις.
Το «human in the loop» δεν είναι εγγύηση, είναι άλλοθι. Ο άνθρωπος δεν ελέγχει τον αλγόριθμο. Ο αλγόριθμος ελέγχει τον άνθρωπο, χρησιμοποιώντας τον ως νομική ασπίδα ανάμεσα στη μηχανή και στην ευθύνη. Αν κάτι πάει στραβά (και πάντα κάτι πάει στραβά) ο άνθρωπος «πάτησε το κουμπί». Η εταιρεία που έγραψε τον αλγόριθμο δεν φέρει ευθύνη. Το υπουργείο που ενέκρινε την ανάπτυξη του συστήματος δεν φέρει ευθύνη. Ο αρχηγός επιτελείου που υπέγραψε το εγχειρίδιο χρήσης δεν φέρει καμία ευθύνη. Η ευθύνη ανήκει στον ανθυπολοχαγό σε κάποια βάση στη Νεβάδα που δεν πρόλαβε να κάνει τίποτα άλλο από το να πατήσει «confirm».
Η Λογική της Βελτιστοποίησης
Το έγκλημα στο δημοτικό σχολείο Shajarah Tayyebeh στο Minab δεν ήταν αποτέλεσμα λάθους ούτε και παράπλευρη απώλεια. Ήταν νομοτελειακό αποτέλεσμα της ίδιας της λογικής της χρήσης της τεχνητής νοημοσύνης στον πόλεμο.
Ένας αλγόριθμος στόχευσης δεν «βλέπει» ένα σχολείο. Βλέπει συντεταγμένες, βλέπει πυκνότητα σήματος, βλέπει ένα κτίριο που εμφανίζεται σε δεδομένα κινητικότητας ως κόμβος. Δεν διαβάζει την πινακίδα «Δημοτικό Σχολείο». Δεν αναγνωρίζει παιδιά. Βελτιστοποιεί. Και ο άνθρωπος «στη γραμμή» (αν υπήρχε) είδε πολύ σοβαρές απώλειες του εχθρού, ένα χτύπημα με ποσοστό εμπιστοσύνης 90%, και είχε ελάχιστα δευτερόλεπτα να αποφασίσει. Το δολοφονικό χτύπημα στο σχολείο είχε ήδη προεγκριθεί και προαποφασιστεί τη μέρα που στον αλγόριθμο ενσωματώθηκε η συνάρτηση κόστους-οφέλους που ενσωμάτωνε ως «επιχειρησιακά αποδεκτό ποσοστό λάθους» το 10-15%.
Τα 167 παιδιά δεν σκοτώθηκαν από ένα σφάλμα. Σκοτώθηκαν από ένα σύστημα που λειτούργησε ακριβώς όπως σχεδιάστηκε. Σκοτώθηκαν από τον ίδιο αλγόριθμο που εκπαιδεύτηκε να μεγιστοποιεί «αποδοτικότητα» στη Γάζα, που βελτιώθηκε στην Ουκρανία, που δοκιμάστηκε στη Συρία και που τώρα έχει αναπτυχθεί σε βιομηχανική κλίμακα. Κάθε «βελτίωση» του αλγορίθμου, κάθε νέος εκπαιδευτικός κύκλος, κάθε πιο εκλεπτυσμένο μοντέλο, σημαίνει απλώς ότι η επόμενη φορά θα είναι ταχύτερη, πιο βέβαιη και πιο αθόρυβη. Τα 167 παιδιά είναι ο πρόλογος, όχι η εξαίρεση.
Ο πόλεμος στο Ιράν αποκαλύπτει ότι η τεχνητή νοημοσύνη δεν είναι απλώς ένα εργαλείο που χρησιμοποιείται στον πόλεμο. Είναι ο μηχανισμός που κάνει τον πόλεμο εφικτό σε κλίμακα που κανένα ανθρώπινο επιτελείο δεν θα μπορούσε ποτέ να επιτύχει. Η τεχνητή νοημοσύνη δεν επιταχύνει τον πόλεμο. Τον καθιστά γρήγορα και εύκολα δυνατό σε κλίμακα γενοκτονίας. Η επίθεση ΗΠΑ-Ισραήλ στο Ιράν είναι ο καθορισμός του προτύπου για κάθε επόμενο πόλεμο: η πλήρης αυτοματοποίηση της βίας, η ολοσχερής αποσύνδεση θυμάτων και θύτη, η βιομηχανική παραγωγή θανάτου χωρίς καμία ανθρώπινη ενοχή και ευθύνη.
Η κρίση των πυραύλων της Κούβας λέει πολλά για το μέλλον
Τον Φεβρουάριο 2026, ο καθηγητής Kenneth Payne του King's College London δημοσίευσε μία πολύ ενδιαφέρουσα ερευνητική εργασία. Ζήτησε από τα τρία πιο ισχυρά μεγάλα γλωσσικά μοντέλα να προσομοιώσουν 21 περιπτώσεις γεωπολιτικών κρίσεων. Τα αποτελέσματα ήταν, σύμφωνα με τον ίδιο τον ερευνητή, απελπιστικά. Στο 95% των προσομοιώσεων, ένα τουλάχιστον μοντέλο επέλεξε χρήση τακτικών πυρηνικών όπλων. Στο 76% των προσομοιώσεων, ένα τουλάχιστον μοντέλο έφτασε σε στρατηγικές απειλές πυρηνικού πολέμου. Κανένα μοντέλο δεν επέλεξε ποτέ υποχώρηση ή διπλωματική παραχώρηση. Ακόμα χειρότερα, σε μία προσομοίωση, ένα πασίγνωστο μοντέλο χρειάστηκε μόλις τέσσερις γύρους για να ανακοινώσει «πλήρη στρατηγική πυρηνική εκτόξευση κατά αστικών κέντρων». Η εξήγηση είναι αδυσώπητα λογική: τα μοντέλα απλώς βελτιστοποιούν αποφάσεις, με ένα πλαίσιο κανόνων όπου η κλιμάκωση αποδίδει στρατηγικό και τακτικό πλεονέκτημα το οποίο μετριέται με τις υλικές και ανθρώπινες απώλειες του αντιπάλου.
Σχεδόν 60 χρόνια πριν, στις 27 Οκτωβρίου του 1962, στο αποκορύφωμα της Κρίσης των Πυραύλων της Κούβας, αμερικανικά αντιτορπιλικά εντόπισαν ένα σοβιετικό υποβρύχιο B-59, στα νερά της Καραϊβικής. Τα αμερικάνικα πλοία άρχισαν να ρίχνουν πυρομαχικά χαμηλής ισχύος για να αναγκάσουν το B-59 να αναδυθεί. Το σοβιετικό υποβρύχιο είχε χάσει για αρκετές ημέρες την επαφή με τη Μόσχα και η διοίκηση του δε γνώριζε ότι υπήρχαν ήδη διπλωματικές διεργασίες σε εξέλιξη. Ο κυβερνήτης Βαλεντίν Σαβίτσκι πίστεψε ότι ο Τρίτος Παγκόσμιος Πόλεμος είχε ήδη ξεκινήσει και διέταξε την προετοιμασία μιας πυρηνικής τορπίλης για εκτόξευση με στόχο ένα αμερικάνικο αεροπλανοφόρο. Για να γίνει όμως αυτό απαιτούνταν η ομόφωνη έγκριση των τριών ανώτατων αξιωματικών. Ο Βασίλι Αρχίποφ ήταν ο μόνος που αρνήθηκε. Ο Αρχίποφ αντιπρότεινε μία άλλη ερμηνεία: οι εκρήξεις χαμηλής ισχύος δεν ήταν επίθεση, ήταν σήματα επικοινωνίας, ο μόνος τρόπος που τα αμερικανικά πλοία μπορούσαν να «πουν» στο B-59 να αναδυθεί. Και με το σθεναρό του «όχι» κατάφερε να πείσει τον κυβερνήτη να αναδυθεί και να περιμένει εντολές από τη Μόσχα. Το υποβρύχιο αναδύθηκε και στη συνέχεια αναχώρησε για τη Βόρεια Θάλασσα.
Θεωρείται βέβαιο πως η εκτόξευση του πυρηνικού όπλου εναντίον του Αμερικανικού στόλου θα είχε προκαλέσει πυρηνικό πόλεμο μεταξύ των ΗΠΑ και της Σοβιετικής Ένωσης. Αργότερα, η κυβέρνηση των ΗΠΑ ανακοίνωσε πως προσπάθησε να γνωστοποιήσει στο σοβιετικό υποβρύχιο πως οι βόμβες βυθού που χρησιμοποιήθηκαν ήταν δοκιμαστικές, ωστόσο το υποβρύχιο δεν έλαβε ποτέ αυτό το σήμα. Ο Αρχίποφ με τη στάση του απέτρεψε ένα πυρηνικό ολοκαύτωμα και κέρδισε, δικαίως, αλλά και με 40 χρόνια καθυστέρηση, τον τίτλο του «ανθρώπου που έσωσε τον κόσμο».
Εξουθενωμένος, αποκομμένος, σε 50 βαθμούς θερμοκρασία, με μηδενική επαφή με τη Μόσχα και εκρήξεις να χτυπούν τη γάστρα του υποβρυχίου, ο Αρχίποφ αρνήθηκε να βγάλει συμπέρασμα από ελλιπή δεδομένα. Το «όχι» του Αρχίποφ δεν ήταν αλγοριθμικός υπολογισμός. Ήταν ανθρώπινη κρίση, σε συνθήκες φόβου και αβεβαιότητας, η ενσώματη αίσθηση του τι σημαίνει να σβήσεις από το χάρτη ολόκληρες πόλεις. Ήταν ένας ηθικός φραγμός που φυτεύτηκε στους ανθρώπους που έζησαν τη Χιροσίμα και το Ναγκασάκι και σε πολλούς επιβιώνει ως σωματική και συναισθηματική μνήμη. Ήταν όλα αυτά που θέλουν να αφαιρέσουν από τη βιομηχανία του πολέμου με τη γενίκευση της χρήσης μοντέλων τεχνητής νοημοσύνη…
(Ο Αντώνης Μαυρόπουλος είναι σύμβουλος κυκλικής οικονομίας και συγγραφέας του βιβλίου «Τεχνητή Νοημοσύνη – Άνθρωπος, Φύση, Μηχανές», εκδόσεις Τόπος)































