Σχολείο στη Φλόριντα μπήκε σε lockdown, όταν σύστημα με βάση την τεχνητή νοημοσύνη εντόπισε μέσα στο κτίριο έναν άνδρα «με στολή παραλλαγής», που κρατούσε κάτι που φαινόταν ως όπλο. Ήταν όλα λάθος. Επρόκειτο για μαθητή, με κλαρινέτο.
Οι αρχές ενημερώθηκαν από το σύστημα και η αστυνομία έφτασε στο σχολείο μέσα σε λίγα λεπτά, στο περιστατικό που συνέβη την προηγούμενη εβδομάδα. Αστυνομικός άρχισε να ψάχνει τις τάξεις, αλλά δεν μπορούσε να βρει τον «ένοπλο» που φαινόταν να κρατά ένα όπλο σαν τουφέκι στον ώμο του. Λίγο μετά, έλαβε μια σημαντική νέα πληροφορία. Έπειτα από προσεκτικότερη εξέταση της φωτογραφίας, προέκυψε ότι το «τουφέκι» μπορεί να ήταν μουσικό όργανο.
Ο αστυνομικός πήγε στην αίθουσα της ορχήστρας, όπου κρύβονταν παιδιά και εντόπισε τον «ένοχο». Ήταν ένας μαθητής που φορούσε στρατιωτική σχολή, λόγω εκδήλωσης στο σχολείο. Και το «όπλο» ήταν ένα κλαρινέτο.
Η γκάφα έγινε επειδή ένα σύστημα παρακολούθησης, που βασίζεται στην τεχνητή νοημοσύνη, το οποίο χρησιμοποιεί το σχολείο στη Φλόριντα κατά λάθος «αναγνώρισε» το κλαρινέτο ως όπλο σύμφωνα με τη ZeroEyes, την εταιρεία που διαχειρίζεται το λογισμικό.
Πολλά σχολεία στις ΗΠΑ έχουν στραφεί στην τεχνητή νοημοσύνη για την ενίσχυση της ασφάλειας. Η ZeroEyes πουλά ένα σύστημα εντοπισμού απειλής. Ελέγχει πλάνα από τις κάμερες ασφαλείας για όπλα- μεταξύ άλλων- και ειδοποιεί τις αρχές όταν τα εντοπίζει.
Η εταιρεία λέει ότι εκπαιδευμένοι υπάλληλοί της εξετάζουν τον «συναγερμό» που σημαίνει το σύστημα, προτού σταλεί στις αρχές. Ακόμα, υπογραμμίζει πως το λογισμικό της μπορεί να κάνει διαφορά που σώζει ζωές, στην αποτροπή επιθέσεων με πυροβολισμούς, ενημερώνοντας τις αρχές για όπλα μέσα σε δευτερόλεπτα.
Ο μαθητής κρατούσε το μουσικό όργανο σαν τουφέκι, δήλωσε στην Washington Post ο συνιδρυτής της ZeroEyes, Σαμ Αλέιμο. Φαινόταν σαν να σημαδεύει με το κλαρινέτο του μία πόρτα- και έμοιαζε πολύ «με ένοπλο που ήταν έτοιμος να κάνει κάτι κακό». «Δεν πιστεύω ότι κάναμε λάθος, ούτε το σχολείο το πιστεύει. Καλύτερα να σταλεί η αστυνομία, παρά να μη συμβεί αυτό», πρόσθεσε.
Το λογισμικό χρησιμοποιείται σε 48 πολιτείες και έχει εντοπίσει περισσότερα από 1.000 όπλα τα τελευταία τρία χρόνια, δήλωσε η εκπρόσωπος της εταιρείας, Όλγκα Σμίκλιερ.
Ανάλογα συστήματα επίσης έχουν κάνει λάθη. Τον Οκτώβριο, γονείς στη Βαλτιμόρη ζήτησαν να επανεξεταστεί ένα άλλο σύστημα AI για τον εντοπισμό απειλών, που πέρασε ένα σακουλάκι τσιπς για όπλο, σημαίνοντας συναγερμό ο οποίος είχε ως αποτέλεσμα να καταλήξει με χειροπέδες ένας μαθητής.
Πέρα από τους αβάσιμους συναγερμούς που προκαλούν αναστάτωση στα σχολεία, τέτοια συστήματα ΑΙ κάνουν και λάθη με τραγικές συνέπειες. Τον περασμένο Ιανουάριο, ένα τέτοιο σύστημα απέτυχε να αποτρέψει επίθεση με πυροβολισμούς σε σχολείο στο Τέξας, όταν 17χρονος σκότωσε συμμαθητή του. Το σύστημα δεν «έπιασε» τον δράστη επειδή ήταν πολύ μακριά από τις κάμερες με συνέπεια να μην εντοπιστεί το όπλο του, σύμφωνα με το CNN.




























