Η τεχνητή νοημοσύνη δεν εισέρχεται απλώς στο πεδίο της μάχης· επιφέρει μια βαθιά δομική μεταβολή στον τρόπο διεξαγωγής του πολέμου. Αισθητήρες μετατρέπονται σε κόμβους λήψης αποφάσεων, δίκτυα επικοινωνίας εξελίσσονται σε προσαρμοστικά συστήματα και η αυτονομία λειτουργεί ταυτόχρονα ως πολλαπλασιαστής ισχύος και ως παράγοντας κινδύνου.
Για τις Ηνωμένες Πολιτείες, το διακύβευμα είναι διπλό: πώς θα αξιοποιήσουν τις δυνατότητες της AI χωρίς να υπονομεύσουν τη στρατηγική σταθερότητα ή την τακτική ασφάλεια.
Στροφή στο Πεντάγωνο: λιγότερες προτεραιότητες, μεγαλύτερη εστίαση
Τον Αύγουστο του 2025, το Πεντάγωνο ανακοίνωσε ότι περιορίζει —και δεν διευρύνει— τον κατάλογο των «κρίσιμων τεχνολογιών» που παρακολουθεί. Η λογική είναι σαφής: όταν τα πάντα χαρακτηρίζονται κρίσιμα, τελικά τίποτα δεν είναι. Η νέα στρατηγική συγκλίνει σε έναν στενό πυρήνα προτεραιοτήτων, με την τεχνητή νοημοσύνη, τα υπερηχητικά συστήματα και τα κατευθυνόμενης ενέργειας όπλα να διαμορφώνουν τον βασικό άξονα.
Η αναθεώρηση αυτή επηρεάζει άμεσα στρατιωτικά προγράμματα, συμβάσεις και κονδύλια έρευνας και ανάπτυξης. Έργα που κινούνται εκτός του βασικού αυτού κορμού κινδυνεύουν να απορροφηθούν από μεγαλύτερα προγράμματα ή να μείνουν χωρίς χρηματοδότηση.
AI στο τακτικό επίπεδο: δίκτυα που σκέφτονται
Στο πεδίο των επιχειρήσεων, η AI μεταμορφώνει τις στρατιωτικές επικοινωνίες. Τα δίκτυα δεν λειτουργούν πλέον απλώς ως αγωγοί πληροφοριών, αλλά ως «έξυπνα» συστήματα που προσαρμόζονται δυναμικά, με αυτόνομη δρομολόγηση και αντοχή υπό πίεση. Πρόκειται, ουσιαστικά, για το νευρικό σύστημα των ενόπλων δυνάμεων.
Ωστόσο, η αυτονομία αυτή συνοδεύεται από σοβαρούς κινδύνους. Εχθρικές επιθέσεις με χρήση AI μπορούν να αποσταθεροποιήσουν ολόκληρα δίκτυα, ενώ η ανάθεση κρίσιμων αποφάσεων σε αλγορίθμους αυξάνει τον κίνδυνο σφαλμάτων. Μελέτες δείχνουν ότι η μηχανική μάθηση ήδη επιτρέπει την υποκατάσταση ανθρώπων από αυτόνομα οπλικά συστήματα, κάτι που ενδέχεται να ευνοήσει χαμηλής έντασης συγκρούσεις που κλιμακώνονται ανεξέλεγκτα.
Γι’ αυτό, η Ουάσιγκτον καλείται να θεσπίσει αυστηρά κριτήρια «ετοιμότητας AI», διασφαλίζοντας διαφάνεια, προβλεψιμότητα και —όπου απαιτείται— ανθρώπινη εποπτεία.
Επανδρωμένα και μη επανδρωμένα συστήματα: ισχύς με όρια
Η συνεργασία ανθρώπου–μηχανής (Manned–Unmanned Teaming) αναδεικνύεται σε έναν από τους πιο υποσχόμενους τομείς. Αντί για πλήρη αυτονομία, το μοντέλο αυτό βασίζεται σε επανδρωμένες πλατφόρμες που συνεργάζονται με μη επανδρωμένα «σμήνη». Πρωτότυπα όπως τα Anduril «Fury» και General Atomics «Gambit» προχωρούν ήδη στο πλαίσιο προγραμμάτων της Πολεμικής Αεροπορίας των ΗΠΑ.
Το πλεονέκτημα είναι σαφές: η ισχύς πολλαπλασιάζεται και ο κίνδυνος διαχέεται. Όμως, τα όρια ανάμεσα στην ανθρώπινη παρέμβαση και την αυτόνομη αντίδραση παραμένουν εξαιρετικά λεπτά και απαιτούν αυστηρό καθορισμό.
Εφοδιαστική αλυσίδα: ο αδύναμος κρίκος
Η AI εξαρτάται απόλυτα από ημιαγωγούς, αισθητήρες και λογισμικό. Χωρίς ασφαλείς και αξιόπιστες εφοδιαστικές αλυσίδες, η αξιοπιστία των συστημάτων τίθεται εν αμφιβόλω. Ο νόμος CHIPS and Science Act, με χρηματοδότηση ύψους 52 δισ. δολαρίων, επιχειρεί να επαναπατρίσει την παραγωγή μικροτσίπ και να μειώσει την εξάρτηση από γεωπολιτικούς ανταγωνιστές.
Παράλληλα, ανησυχίες εγείρονται και για άλλες κρίσιμες τεχνολογίες, όπως οι αισθητήρες lidar κινεζικής προέλευσης, που φέρονται να ενσωματώνουν «πίσω πόρτες» ή ευπάθειες. Το συμπέρασμα είναι σαφές: ακόμη και ο πιο άρτιος αλγόριθμος υπονομεύεται από αναξιόπιστο υλικό.
Κίνδυνοι κλιμάκωσης και η κούρσα της AI
Η αυτοματοποίηση μειώνει τα όρια χρήσης στρατιωτικής ισχύος. Ταχύτεροι κύκλοι αποφάσεων και αυτόματες αντιδράσεις μπορούν να αποσταθεροποιήσουν κρίσεις. Αν και οι ΗΠΑ προώθησαν το 2024 μια «Πολιτική Διακήρυξη για την Υπεύθυνη Στρατιωτική Χρήση της AI», η εφαρμογή της παραμένει εθελοντική και χωρίς μηχανισμούς επιβολής.
Χωρίς σαφείς κανόνες, τα αυτόνομα οπλικά συστήματα αυξάνουν τον κίνδυνο ακούσιας κλιμάκωσης, όπου η διαφορά μεταξύ επιτυχίας και αποτυχίας μπορεί να είναι ελάχιστη.
Τι πρέπει να κάνει η Ουάσιγκτον
Οι ειδικοί επισημαίνουν την ανάγκη για ένα νέο πλαίσιο αξιολόγησης της ετοιμότητας AI, που θα λαμβάνει υπόψη ζητήματα όπως η ανθεκτικότητα σε επιθέσεις, η ερμηνευσιμότητα και οι μηχανισμοί ασφαλούς απενεργοποίησης. Παράλληλα, απαιτούνται ρεαλιστικά πεδία δοκιμών, ενίσχυση της διαφάνειας στην εφοδιαστική αλυσίδα, αυστηροί κανόνες εμπλοκής και ουσιαστική διεθνής συνεργασία με δεσμευτικούς κανόνες.
Συμπέρασμα
Η τεχνητή νοημοσύνη μπορεί να αποτελέσει καθοριστικό πλεονέκτημα για τις ΗΠΑ ή μια μακροπρόθεσμη στρατηγική παγίδα. Η νίκη δεν θα κριθεί από το πόση αυτονομία θα ενσωματωθεί στα οπλικά συστήματα, αλλά από το πώς αυτή θα χρησιμοποιηθεί: με πειθαρχία, ασφάλεια και στρατηγική διορατικότητα. Αν το Πεντάγωνο καταφέρει να συνδυάσει καινοτομία χωρίς απερισκεψία, ίσως διατηρήσει το ιστορικό του προβάδισμα.