Η ιστορία της στρατιωτικής ισχύος φαίνεται να επαναλαμβάνεται, αλλά αυτή τη φορά με έναν πολύ πιο αινιγματικό πρωταγωνιστή. Αν ο Πόλεμος του Κόλπου έμεινε στην ιστορία ως η θριαμβευτική επικράτηση των μικροτσίπ, η τρέχουσα αμερικανοϊσραηλινή επίθεση στο Ιράν καταγράφεται ήδη ως ο πρώτος «πόλεμος της Τεχνητής Νοημοσύνης».
Η χρήση αλγορίθμων έχει μεταμορφώσει το πεδίο των μαχών, προσφέροντας μια τρομακτική αποτελεσματικότητα που όμως συνοδεύεται από ένα δυσαναπλήρωτο ηθικό κενό.
Η «αλγοριθμική» πραγματικότητα του πεδίου
Η Τεχνητή Νοημοσύνη δεν αποτελεί πλέον ένα θεωρητικό εργαλείο στρατηγικής, αλλά τον κινητήριο μοχλό της «αλυσίδας εξόντωσης» (kill chain). Στο Ιράν, η ικανότητα του συστήματος να επεξεργάζεται δεδομένα επέτρεψε την προσβολή 1.000 στόχων σε μία μόλις ημέρα, ένα επίτευγμα που θα ήταν αδύνατο με τις παραδοσιακές μεθόδους ανθρώπινης στοχοποίησης.
Οι στρατιωτικοί αναλυτές επισημαίνουν ότι η AI προσφέρει ένα κρίσιμο πλεονέκτημα όταν οι αποφάσεις πρέπει να ληφθούν σε κλάσματα δευτερολέπτου. Ωστόσο, αυτή η ιλιγγιώδης ταχύτητα καθιστά τον ρόλο του ανθρώπου-χειριστή διακοσμητικό.
Η απαίτηση για ουσιαστικό ανθρώπινο έλεγχο (human-in-the-loop) μοιάζει με ανέκδοτο όταν το σύστημα παράγει στόχους ταχύτερα από όσο μπορεί ένας εγκέφαλος να τους αξιολογήσει, αφήνοντας την ηθική ευθύνη να αιωρείται σε ένα νομικό κενό.
Ευθύνες σε «ηθικές ζώνες παραμόρφωσης»
Οι κίνδυνοι αυτής της αυτοματοποίησης πήραν σάρκα και οστά με τον τραγικό βομβαρδισμό του σχολείου στο Μινάμπ, όπου 168 άνθρωποι έχασαν τη ζωή τους. Ενώ οι υποψίες βαραίνουν τα λάθη των αλγορίθμων, η Ουάσιγκτον φαίνεται να καταφεύγει στη θεωρία της «ηθικής ζώνης παραμόρφωσης» (moral crumple zone).
Σε αυτό το σενάριο, η ευθύνη μετακυλίεται στον ανθρώπινο παράγοντα που απλώς πάτησε το κουμπί, απαλλάσσοντας την τεχνολογία και τους δημιουργούς της από κάθε λογοδοσία. Η στρατηγική αυτή επιτρέπει στις κυβερνήσεις να βαφτίζουν τις δολοφονικές αστοχίες των μηχανών ως «ανθρώπινα λάθη», κλείνοντας βολικά τις έρευνες χωρίς να αγγίζουν την ουσία του προβλήματος.
Ο εκβιασμός της Silicon Valley και το «μαύρο κουτί» του Πενταγώνου
Η σύγκρουση στο Ιράν αποκάλυψε επίσης την ωμή πίεση που ασκεί το κράτος στον ιδιωτικό τομέα. Η περίπτωση της εταιρείας Anthropic, η οποία αντιστάθηκε στη χρήση των μοντέλων της για αυτόνομη στοχοποίηση επικαλούμενη ηθικές δικλείδες, κατέληξε σε έναν ιδιότυπο κυβερνητικό εκβιασμό.
Το Πεντάγωνο κατέστησε σαφές ότι η μη συμμόρφωση θα οδηγούσε σε αποκλεισμό από αμυντικά συμβόλαια δισεκατομμυρίων. Ταυτόχρονα, η στρατιωτική ηγεσία στρέφεται σε μικρότερους προμηθευτές με χαμηλότερα ηθικά στάνταρ, διασφαλίζοντας ότι καμία «φιλοσοφική» αντίρρηση δεν θα σταθεί εμπόδιο στις επιχειρήσεις.
«Η συνεργασία μεταξύ κυβέρνησης και βιομηχανίας AI έχει καταστεί τόσο αδιαφανής, ώστε οι λεπτομέρειες των κοινών έργων κρύβονται πίσω από απόρρητες συμβάσεις, αφήνοντας το Κογκρέσο και τη διεθνή κοινότητα στο σκοτάδι.»
Η ανάγκη για ένα δεσμευτικό νομικό πλαίσιο
Το υπάρχον διεθνές δίκαιο αποδεικνύεται ανίσχυρο μπροστά σε συστήματα που αποφασίζουν για τη ζωή και τον θάνατο σε χιλιοστά του δευτερολέπτου. Η έλλειψη ενός καθολικά αποδεκτού ορισμού για τα αυτόνομα όπλα δημιουργεί μια επικίνδυνη γκρίζα ζώνη. Οι ειδικοί προειδοποιούν ότι η πολιτική των εθελοντικών δεσμεύσεων έχει αποτύχει.
Απαιτούνται δεσμευτικές διεθνείς συμφωνίες, υποχρεωτικοί έλεγχοι διαφάνειας και auditable(ελεγχόμενα) συστήματα που θα επιτρέπουν την απόδοση ευθυνών σε κάθε στάδιο, από τον σχεδιασμό μέχρι την εκτέλεση.
Χωρίς αυτά τα προστατευτικά κιγκλιδώματα, η Τεχνητή Νοημοσύνη θα συνεχίσει να λειτουργεί ως ένα «μαύρο κουτί» που διεξάγει πολέμους χωρίς κανόνες, καθορίζοντας τη μοίρα της ανθρωπότητας με έναν ψυχρό, αλγοριθμικό τρόπο.