Μια αποκαλυπτική έρευνα του περιοδικού WIRED φέρνει στο φως την παταγώδη αποτυχία των συστημάτων επαλήθευσης της πλατφόρμας X (πρώην Twitter), με επίκεντρο το chatbot Grok.
Σύμφωνα με τα ευρήματα, το εργαλείο τεχνητής νοημοσύνης του Έλον Μασκ όχι μόνο αδυνατεί να ταυτοποιήσει ψεύτικα βίντεο από το μέτωπο του Ιράν, αλλά φτάνει στο σημείο να επινοεί δικές του εικόνες AI για να «στηρίξει» λανθασμένες πληροφορίες σχετικά με τοποθεσίες και ημερομηνίες επιθέσεων.
Η «βιομηχανία» των deepfakes και το Ιράν
Από την έναρξη των εχθροπραξιών στις 28 Φεβρουαρίου, το X έχει κατακλυστεί από παραποιημένο υλικό. Η Τεχεράνη και φιλοϊρανοί χρήστες χρησιμοποιούν προηγμένα εργαλεία παραγωγής εικόνας και βίντεο για να διογκώσουν τις απώλειες των αντιπάλων τους ή να κατασκευάσουν σκηνές θριάμβου.
Εκατομμύρια προβολές: Εικονικές φωτογραφίες που δείχνουν καταρρίψεις αμερικανικών βομβαρδιστικών B-2 ή συλλήψεις στρατιωτών συγκεντρώνουν εκατομμύρια θεάσεις πριν διαγραφούν, έχοντας ήδη διαμορφώσει την κοινή γνώμη.
Προπαγάνδα και Αντισημιτισμός: Το Ινστιτούτο Στρατηγικού Διαλόγου (ISD) προειδοποιεί ότι η ΤΝ χρησιμοποιείται συστηματικά για τη δημιουργία αντισημιτικού περιεχομένου και ψεύτικων βίντεο που στοχεύουν πολιτικά πρόσωπα, όπως ο Ντόναλντ Τραμπ, με σκοπό την πόλωση.
Αδύναμοι οι μηχανισμοί ελέγχου
Η NewsGuard και άλλοι οργανισμοί παρακολούθησης επισημαίνουν ότι η τεχνολογία έχει φτάσει σε τέτοιο επίπεδο ρεαλισμού, που ακόμη και έμπειροι δημοσιογράφοι κινδυνεύουν να εξαπατηθούν.
Το έλλειμμα της Meta: Το Συμβούλιο Εποπτείας της Meta άσκησε δριμεία κριτική στην εταιρεία, τονίζοντας ότι δεν είναι επαρκώς εξοπλισμένη για να αντιμετωπίσει την ταχύτητα της παραπληροφόρησης σε περιόδους κρίσης.
Ανεπάρκεια εργαλείων ανίχνευσης: Τα υπάρχοντα λογισμικά που υποτίθεται ότι αναγνωρίζουν περιεχόμενο AI αποδεικνύονται συχνά αναξιόπιστα, αφήνοντας τους χρήστες απροστάτευτους απέναντι σε «αποδείξεις» που δεν υπήρξαν ποτέ.