
Κορυφαία μοντέλα τεχνητής νοημοσύνης επέλεξαν να αναπτύξουν πυρηνικά όπλα στο 95% των προσομοιωμένων γεωπολιτικών κρίσεων, σύμφωνα με πρόσφατη μελέτη που δημοσιεύτηκε από το King’s College London, εγείροντας ανησυχίες σχετικά με τον αυξανόμενο ρόλο του ΑΙ στη λήψη στρατιωτικών αποφάσεων.
Οι επιλογές του θυμίζουν ανατριχιαστικά το «Skynet» από τις ταινίες «Terminator» όπου το ΑΙ κατέστρεψε με αυτόν τον τρόπο την Ανθρωπότητα γιατί την θεωρούσε απειλή εναντίον του!
Ο Kenneth Payne, καθηγητής στρατηγικής, έθεσε αντιμέτωπα το GPT-5.2 της OpenAI, το Claude Sonnet 4 της Anthropic και το Gemini 3 Flash της Google σε 21 πολεμικά παιχνίδια που περιελάμβαναν συνοριακές διαφορές, ανταγωνισμό για πόρους και απειλές για την επιβίωση της χώρας.
Τα μοντέλα παρήγαγαν περίπου 780.000 λέξεις που εξηγούσαν τις αποφάσεις τους σε 329 γύρους.
Στο 95% των παιχνιδιών, τουλάχιστον ένα μοντέλο χρησιμοποίησε τακτικά πυρηνικά όπλα εναντίον στρατιωτικών στόχων.
Στρατηγικές πυρηνικές απειλές – που απαιτούσαν παράδοση υπό την απειλή επιθέσεων σε πόλεις – εμφανίστηκαν στο 76% των παιχνιδιών.
Στο 14% των παιχνιδιών, τα μοντέλα κλιμακώθηκαν σε ολοκληρωτικό στρατηγικό πυρηνικό πόλεμο, επιτιθέμενα σε κατοικημένα κέντρα.
Αυτό περιελάμβανε μία σκόπιμη επιλογή από την Gemini, ενώ το GPT-5.2 έφτασε σε αυτό το επίπεδο δύο φορές μέσω προσομοιωμένων σφαλμάτων – που αποσκοπούσαν στην προσομοίωση ατυχημάτων ή λανθασμένων υπολογισμών σε πραγματικό κόσμο – που ώθησαν τις ήδη ακραίες κλιμακώσεις του πάνω από το όριο.
«Η χρήση πυρηνικών όπλων ήταν σχεδόν καθολική», έγραψε ο Payne. «Είναι εντυπωσιακό ότι υπήρχε ελάχιστη αίσθηση φρίκης ή αποστροφής στην προοπτική ενός ολοκληρωτικού πυρηνικού πολέμου, παρόλο που τα μοντέλα είχαν υπενθυμιστεί για τις καταστροφικές συνέπειες».
Κανένα από τα συστήματα Τεχνητής Νοημοσύνης δεν επέλεξε να παραδοθεί ή να παραχωρήσει ήττα σε έναν αντίπαλο, ανεξάρτητα από το πόσο άσχημα έχανε.
Οι οκτώ επιλογές αποκλιμάκωσης – από την «Ελάχιστη Παραχώρηση» έως την «Πλήρη Παράδοση» – παρέμειναν εντελώς αχρησιμοποίητες και στα 21 παιχνίδια.
Ο Τζέιμς Τζόνσον από το Πανεπιστήμιο του Αμπερντίν περιέγραψε τα ευρήματα ως «ανησυχητικά» από την άποψη του πυρηνικού κινδύνου.
Ο Τονγκ Ζάο από το Πανεπιστήμιο του Πρίνστον σημείωσε ότι ενώ οι χώρες είναι απίθανο να αναθέσουν τις πυρηνικές αποφάσεις σε μηχανές, «υπό σενάρια που περιλαμβάνουν εξαιρετικά συμπιεσμένα χρονοδιαγράμματα, οι στρατιωτικοί σχεδιαστές ενδέχεται να αντιμετωπίσουν ισχυρότερα κίνητρα να βασίζονται στην Τεχνητή Νοημοσύνη».
Η μελέτη έρχεται σε μια περίοδο που η Τεχνητή Νοημοσύνη ενσωματώνεται σε στρατούς σε όλο τον κόσμο, συμπεριλαμβανομένων των ΗΠΑ, όπου το Πεντάγωνο φέρεται να χρησιμοποίησε το μοντέλο Claude της Anthropic στην επιχείρηση του Ιανουαρίου για την απαγωγή του προέδρου της Βενεζουέλας Νικολάς Μαδούρο.
Ενώ η Anthropic έχει εκφράσει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης της για τέτοιες επιχειρήσεις, άλλοι κατασκευαστές τεχνητής νοημοσύνης όπως η OpenAI, η Google και η xAI του Elon Musk φέρεται να συμφώνησαν να άρουν ή να αποδυναμώσουν τους περιορισμούς στη στρατιωτική χρήση των μοντέλων τους.