Η δημόσια παρέμβαση του Προκόπη Παυλόπουλου για την απονομή της Δικαιοσύνης στην εποχή της Τεχνητής Νοημοσύνης (Dnews 13/12/2025) έχει αναμφίβολα θεσμικό βάρος και μια σαφή αφετηρία: την υπεράσπιση του ανθρώπινου παράγοντα, της συνείδησης και του κράτους δικαίου. Υπερασπίζεται την ανθρώπινη κρίση του δικαστή, τη δικαστική ανεξαρτησία, την ανάγκη αιτιολογημένων αποφάσεων και προειδοποιεί για τον κίνδυνο αλγοριθμικής αυθαιρεσίας. Πρόκειται για θέσεις που εδράζονται στον πυρήνα του κράτους δικαίου και δεν επιδέχονται εύκολη αμφισβήτηση.
Ωστόσο, ακριβώς επειδή το ζήτημα είναι κρίσιμο για το μέλλον των δημοκρατικών θεσμών, θεωρώ ότι η προσέγγιση αυτή παραμένει αμυντική και υπέρ το δέον επιφυλακτική για να απαντήσει στις πραγματικές προκλήσεις της εποχής.
Είναι προφανές ότι η Τεχνητή Νοημοσύνη δεν διαθέτει συνείδηση, ηθική αυτονομία ή δημοκρατική νομιμοποίηση. Όμως αυτό είναι ένα αυτονόητο επιχείρημα, όχι ένα επαρκές συμπέρασμα πολιτικής. Το κρίσιμο ερώτημα δεν είναι αν η ΤΝ μπορεί να «αντικαταστήσει» τον δικαστή – κάτι που κανείς σοβαρός δεν προτείνει – αλλά αν μπορεί να βελτιώσει, να ελέγξει και να εξορθολογίσει τη δικαστική λειτουργία υπό αυστηρούς θεσμικούς όρους.
Η ιστορία του δικαίου διδάσκει , όπως εγώ τουλάχιστον κατανοώ,ότι κάθε τεχνολογική τομή αντιμετωπίστηκε αρχικά ως απειλή: η κωδικοποίηση των νόμων, η εισαγωγή της νομολογίας ως πηγής δικαίου, τα πληροφοριακά συστήματα, ακόμη και η ψηφιοποίηση των αρχείων. Σήμερα, κανείς δεν θα υποστήριζε σοβαρά ότι αυτά «αποξένωσαν» τη Δικαιοσύνη από τον άνθρωπο. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη.
Ιδιαίτερη σημασία έχει το επιχείρημα περί «αόριστων νομικών εννοιών», οι οποίες – υποτίθεται – δεν μπορούν να προσεγγιστούν αλγοριθμικά. Στην πραγματικότητα, τα σύγχρονα μοντέλα μηχανικής μάθησης δεν λειτουργούν με άκαμπτους κανόνες, αλλά με πιθανοκρατικές αποτυπώσεις προτύπων, αποκλίσεων και ιστορικών τάσεων. Μπορούν να καταδείξουν ασυνέπειες, άνιση μεταχείριση, ακόμη και συστηματικές προκαταλήψεις της ανθρώπινης κρίσης. Το πρόβλημα δεν είναι ότι η ΤΝ «δεν καταλαβαίνει» το πρόβλημα είναι ότι η ανθρώπινη κρίση συχνά παραμένει ανεξέλεγκτη, αδιαφανής και μη συγκρίσιμη.
Η πραγματική απειλή για το κράτος δικαίου δεν είναι η χρήση της ΤΝ, αλλά η άτυπη, ανεξέλεγκτη και άνιση χρήση εργαλείων αξιολόγησης και πρόβλεψης που ήδη εφαρμόζονται σε πολλά δικαστικά συστήματα, χωρίς σαφές νομικό πλαίσιο. Σε αυτό το σημείο, η ευρωπαϊκή συζήτηση –και ειδικά ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act)– προσφέρει ένα κρίσιμο εργαλείο: κατηγοριοποίηση κινδύνων, διαφάνεια, ανθρώπινη τελική απόφαση, δικαίωμα εξήγησης και σαφή κατανομή ευθύνης.
Στην ελληνική πραγματικότητα, η συζήτηση αυτή αποκτά ιδιαίτερη πολιτική βαρύτητα.
Μια Δικαιοσύνη αργή, απρόβλεπτη και άνιση υπονομεύει καθημερινά την εμπιστοσύνη των πολιτών. Η άρνηση αξιοποίησης της ΤΝ στο όνομα μιας αφηρημένης «ανθρωποκεντρικότητας» κινδυνεύει να λειτουργήσει ως άλλοθι για τη διατήρηση χρόνιων παθογενειών. Η ταχύτητα, η συνέπεια και η δυνατότητα ελέγχου δεν είναι τεχνικές πολυτέλειες· είναι δημοκρατικές απαιτήσεις.
Όμως η σημερινή συζήτηση δεν μπορεί να σταματήσει εκεί. Διότι η Δικαιοσύνη δεν κρίνεται μόνο από τη θεσμική της καθαρότητα, αλλά και από τη λειτουργική της επάρκεια. Και εδώ ανακύπτει το πραγματικό πρόβλημα: η ελληνική Δικαιοσύνη είναι χρόνια υπερφορτωμένη, αργή και συχνά ανίκανη να ανταποκριθεί στο βάρος σύνθετων υποθέσεων με έντονο κοινωνικό αντίκτυπο.
Η τραγωδία – το έγκλημα – των Τεμπών αποτελεί το πιο χαρακτηριστικό και οδυνηρό παράδειγμα. Δύο χρόνια μετά, η κοινωνία εξακολουθεί να αναζητά καθαρές απαντήσεις:
ποιος γνώριζε, ποιος προειδοποίησε, ποιος αδιαφόρησε, ποια συστήματα ασφαλείας δεν λειτούργησαν και γιατί. Αντί για σαφή εικόνα, έχουμε χιλιάδες σελίδες δικογραφίας, πολλαπλές πραγματογνωμοσύνες, αντικρουόμενα πορίσματα και διαρκείς καθυστερήσεις. Η αλήθεια δεν αποκρύπτεται απαραίτητα σκόπιμα· συχνά χάνεται μέσα στον όγκο της πληροφορίας.
Σε αυτό το σημείο, η καχυποψία απέναντι στην Τεχνητή Νοημοσύνη κινδυνεύει να λειτουργήσει όχι ως θεσμική άμυνα, αλλά ως θεσμικό άλλοθι αδράνειας. Όχι επειδή η ΤΝ πρέπει ή μπορεί να «δικάζει» – κάτι τέτοιο θα ήταν όντως θεσμικά απαράδεκτο – αλλά επειδή θα μπορούσε να υποστηρίξει ουσιαστικά τη δικαστική λειτουργία εκεί όπου σήμερα ασφυκτιά.
Η συζήτηση συχνά εγκλωβίζεται σε ένα ψευδές δίλημμα: άνθρωπος ή μηχανή. Στην πραγματικότητα, το κρίσιμο δίλημμα είναι άλλο: άνθρωπος μόνος, σε ένα σύστημα που καταρρέει από τον όγκο και την πολυπλοκότητα, ή άνθρωπος με θεσμικά ελεγχόμενα εργαλεία που ενισχύουν την ικανότητά του να κρίνει.
Στην υπόθεση των Τεμπών, η Τεχνητή Νοημοσύνη δεν θα αποφάσιζε ποιος είναι ένοχος.
Θα μπορούσε όμως να αναλύσει τεράστιους όγκους δεδομένων: τηλεπικοινωνιακά αρχεία, χρονοσειρές σημάτων, καταγραφές ασφαλείας, εσωτερική αλληλογραφία, τεχνικές αναφορές. Θα μπορούσε να εντοπίσει αντιφάσεις, κρίσιμα χρονικά κενά, επαναλαμβανόμενα μοτίβα αμέλειας ή συστημικής αποτυχίας. Δηλαδή να κάνει μεθοδικά και γρήγορα αυτό που σήμερα επιχειρείται αποσπασματικά, με ανθρώπινα μέσα που δεν επαρκούν.
Η απόλυτη άρνηση τέτοιων εργαλείων δεν συνιστά θεσμική αυστηρότητα. Συνιστά θεσμικό συντηρητισμό. Και όταν ο συντηρητισμός αυτός οδηγεί σε χρόνια
καθυστέρηση, τότε παύει να είναι ουδέτερος. Μετατρέπεται σε μορφή αδικίας. Διότι δικαιοσύνη που καθυστερεί, ιδίως σε υποθέσεις με νεκρούς και τεράστιο κοινωνικό τραύμα, υπονομεύει την ίδια της τη νομιμοποίηση.
Ορθώς ο Προκόπης Παυλόπουλος προειδοποιεί για τον κίνδυνο τεχνοκρατικής ή αλγοριθμικής Δικαιοσύνης. Ο κίνδυνος αυτός είναι υπαρκτός, ιδίως όταν αλγοριθμικά συστήματα λειτουργούν ως «μαύρα κουτιά», χωρίς διαφάνεια και χωρίς δυνατότητα ουσιαστικού ελέγχου. Η ιστορία έχει δείξει ότι η τεχνολογία χωρίς θεσμικά αντίβαρα μπορεί να οδηγήσει σε νέες μορφές αυθαιρεσίας.
Όμως υπάρχει και ένας άλλος κίνδυνος, λιγότερο ορατός αλλά εξίσου σοβαρός: η Δικαιοσύνη της αδράνειας, όπου ο φόβος της τεχνολογίας συγκαλύπτει την αδυναμία του συστήματος να εκσυγχρονιστεί. Σε αυτή την περίπτωση, η επίκληση των θεσμών δεν λειτουργεί ως προστασία, αλλά ως άμυνα απέναντι στην αλλαγή και, τελικά απέναντι στην κοινωνία.
Η Ευρωπαϊκή Ένωση δεν υιοθετεί αυτή τη λογική. Με τον Κανονισμό για την Τεχνητή Νοημοσύνη, δεν απορρίπτει την τεχνολογία, αλλά τη ρυθμίζει. Κατηγοριοποιεί τους κινδύνους, θέτει αυστηρά όρια, απαιτεί ανθρώπινη εποπτεία, διαφάνεια και λογοδοσία.
Δεν λέει «όχι» στην ΤΝ· λέει «όχι ανεξέλεγκτα». Αυτή είναι μια ώριμη θεσμική στάση, που αναγνωρίζει ότι η τεχνολογία είναι ήδη παρούσα και το ερώτημα είναι ποιος και πώς τη ελέγχει.
Η Δικαιοσύνη δεν κινδυνεύει από την Τεχνητή Νοημοσύνη. Κινδυνεύει από την απουσία κανόνων, διαφάνειας και θεσμικού θάρρους. Το ζητούμενο δεν είναι να φοβηθούμε την τεχνολογία, αλλά να τη δέσουμε σφιχτά με το κράτος δικαίου – προς όφελος του πολίτη και της δημοκρατίας.
Η επίκληση της «ανθρώπινης μοναδικότητας» δεν αρκεί για να σώσει τη Δικαιοσύνη από τις ίδιες της τις αδυναμίες. Χωρίς κανόνες, χωρίς διαφάνεια και χωρίς λογοδοσία, ο άνθρωπος μπορεί να αποδειχθεί εξίσου αυθαίρετος με έναν κακώς σχεδιασμένο αλγόριθμο. Το πραγματικό διακύβευμα δεν είναι αν θα εισέλθει η Τεχνητή Νοημοσύνη στη Δικαιοσύνη, αλλά αν θα το κάνει δημοκρατικά, ελεγχόμενα και προς όφελος του πολίτη. Αν η τεχνολογία μπορεί να περιορίσει την καθυστέρηση, την άνιση μεταχείριση και τη σιωπηρή αυθαιρεσία, τότε η άρνησή της δεν είναι υπεράσπιση του κράτους δικαίου· είναι συνενοχή στη φθορά του.
Η πρόκληση δεν είναι η αντικατάσταση του δικαστή, αλλά η ενίσχυσή του. Και αυτή η συζήτηση δεν μπορεί να γίνεται με όρους φόβου. Πρέπει να γίνεται με θεσμική ευθύνη, ιστορική επίγνωση και σεβασμό προς μια κοινωνία που, μετά τα Τέμπη, δεν αντέχει άλλη καθυστέρηση ούτε άλλη σιωπή.
(Ο Νίκος Μαρκάτος, είναι Ομοτ.Καθηγητή ΕΜΠ, π.Πρύτανη, Γ.Γ.Ευρωπαικής Ένωσης Ομότιμων Καθηγητών.)




























