Η εποχή όπου οι στρατιωτικές αποφάσεις λαμβάνονταν αποκλειστικά από ανθρώπους παρέρχεται ανεπιστρεπτί. Από τις επιχειρήσεις στη Γάζα μέχρι την πρόσφατη κλιμάκωση στο Ιράν και την εισβολή στο Καράκας, η Τεχνητή Νοημοσύνη (AI) δεν αποτελεί πλέον βοηθητικό εργαλείο, αλλά τον «εγκέφαλο» πίσω από τον εντοπισμό και την ιεράρχηση στόχων.
Η «Kill Chain» της νέας εποχής
Η χρήση προηγμένων συστημάτων AI έχει μειώσει δραματικά τον χρόνο μεταξύ του εντοπισμού ενός στόχου και της εξουδετέρωσής του. Το σύστημα Maven της Palantir επιτρέπει σε έναν χειριστή να εγκρίνει έως 80 στόχους την ώρα, υπερδιπλασιάζοντας την επιχειρησιακή ταχύτητα. Πίσω από τα πλήγματα βρίσκονται αλγόριθμοι που αναλύουν δεδομένα από δορυφόρους, κοινωνικά δίκτυα, μεταδεδομένα τηλεφώνων και κινήσεις σε πραγματικό χρόνο.
Η σκοτεινή πλευρά: Από το Lavender στη «Γυμνή Ζωή»
Η αποκάλυψη συστημάτων όπως το Lavender στη Γάζα ανέδειξε μια τρομακτική πραγματικότητα: αλγόριθμοι μηχανικής μάθησης «βάπτισαν» στόχους 37.000 άτομα, περιλαμβάνοντας συχνά πολίτες ή εργαζόμενους σε ανθρωπιστικές οργανώσεις.
Lavender & «Where’s Daddy?»: Συστήματα που βαθμολογούσαν την απειλή και εντόπιζαν στόχους στα σπίτια τους, επιτρέποντας μαζικές παράπλευρες απώλειες βάσει προκαθορισμένων «ποσοστώσεων» θανάτων.
Το «Claude» στο πεδίο της μάχης: Η χρήση του μεγάλου γλωσσικού μοντέλου της Anthropic κατά την επιχείρηση σύλληψης του Νικολάς Μαδούρο στη Βενεζουέλα σηματοδότησε την πρώτη φορά που ένα εμπορικό AI εργαλείο ενεπλάκη άμεσα σε διαβαθμισμένη στρατιωτική επιχείρηση, θέτοντας σοβαρά ερωτήματα για τις ηθικές «κόκκινες γραμμές» των τεχνολογικών εταιρειών.
Ηθικά διλήμματα και η ευθύνη του «μηχανήματος»
Η φιλοσοφική προσέγγιση του Giorgio Agamben περί «κατάστασης εξαίρεσης» φαίνεται να επικρατεί, με τον πόλεμο να μετατρέπεται σε ζήτημα στατιστικής. Όταν ο θάνατος αποφασίζεται σε 20 δευτερόλεπτα από έναν αλγόριθμο, η ανθρώπινη τραγωδία υποχωρεί μπροστά στο «κοινό καλό» της στρατηγικής αποτελεσματικότητας.
Το κρίσιμο ερώτημα που παραμένει αναπάντητο δεν είναι πλέον αν το AI θα χρησιμοποιηθεί, αλλά ποιος φέρει την ευθύνη για το «λάθος» του συστήματος (περίπου 10% στην περίπτωση του Lavender). Ο προγραμματιστής, ο χειριστής ή η ίδια η μηχανή; Η απάντηση σε αυτό το ερώτημα θα καθορίσει το μέλλον της ανθρώπινης ευθύνης σε έναν κόσμο όπου η Τεχνητή Νοημοσύνη «βλέπει» και αποφασίζει για τη ζωή και τον θάνατο.