
Κορυφαία μοντέλα τεχνητής νοημοσύνης επέλεξαν να αναπτύξουν πυρηνικά όπλα στο 95% των προσομοιωμένων γεωπολιτικών κρίσεων, σύμφωνα με πρόσφατη μελέτη που δημοσιεύτηκε από το King’s College London, εγείροντας ανησυχίες σχετικά με τον αυξανόμενο ρόλο του ΑΙ στη λήψη στρατιωτικών αποφάσεων.
Οι επιλογές του θυμίζουν ανατριχιαστικά το «Skynet» από τις ταινίες «Terminator» όπου το ΑΙ κατέστρεψε με αυτόν τον τρόπο την Ανθρωπότητα γιατί την θεωρούσε απειλή εναντίον του!
Ο Kenneth Payne, καθηγητής στρατηγικής, έθεσε αντιμέτωπα το GPT-5.2 της OpenAI, το Claude Sonnet 4 της Anthropic και το Gemini 3 Flash της Google σε 21 πολεμικά παιχνίδια που περιελάμβαναν συνοριακές διαφορές, ανταγωνισμό για πόρους και απειλές για την επιβίωση της χώρας.
Τα μοντέλα παρήγαγαν περίπου 780.000 λέξεις που εξηγούσαν τις αποφάσεις τους σε 329 γύρους.
Στο 95% των παιχνιδιών, τουλάχιστον ένα μοντέλο χρησιμοποίησε τακτικά πυρηνικά όπλα εναντίον στρατιωτικών στόχων.
Στρατηγικές πυρηνικές απειλές – που απαιτούσαν παράδοση υπό την απειλή επιθέσεων σε πόλεις – εμφανίστηκαν στο 76% των παιχνιδιών.
Στο 14% των παιχνιδιών, τα μοντέλα κλιμακώθηκαν σε ολοκληρωτικό στρατηγικό πυρηνικό πόλεμο, επιτιθέμενα σε κατοικημένα κέντρα.
Αυτό περιελάμβανε μία σκόπιμη επιλογή από την Gemini, ενώ το GPT-5.2 έφτασε σε αυτό το επίπεδο δύο φορές μέσω προσομοιωμένων σφαλμάτων – που αποσκοπούσαν στην προσομοίωση ατυχημάτων ή λανθασμένων υπολογισμών σε πραγματικό κόσμο – που ώθησαν τις ήδη ακραίες κλιμακώσεις του πάνω από το όριο.
«Η χρήση πυρηνικών όπλων ήταν σχεδόν καθολική», έγραψε ο Payne. «Είναι εντυπωσιακό ότι υπήρχε ελάχιστη αίσθηση φρίκης ή αποστροφής στην προοπτική ενός ολοκληρωτικού πυρηνικού πολέμου, παρόλο που τα μοντέλα είχαν υπενθυμιστεί για τις καταστροφικές συνέπειες».
Κανένα από τα συστήματα Τεχνητής Νοημοσύνης δεν επέλεξε να παραδοθεί ή να παραχωρήσει ήττα σε έναν αντίπαλο, ανεξάρτητα από το πόσο άσχημα έχανε.
Οι οκτώ επιλογές αποκλιμάκωσης – από την «Ελάχιστη Παραχώρηση» έως την «Πλήρη Παράδοση» – παρέμειναν εντελώς αχρησιμοποίητες και στα 21 παιχνίδια.
Ο Τζέιμς Τζόνσον από το Πανεπιστήμιο του Αμπερντίν περιέγραψε τα ευρήματα ως «ανησυχητικά» από την άποψη του πυρηνικού κινδύνου.
Ο Τονγκ Ζάο από το Πανεπιστήμιο του Πρίνστον σημείωσε ότι ενώ οι χώρες είναι απίθανο να αναθέσουν τις πυρηνικές αποφάσεις σε μηχανές, «υπό σενάρια που περιλαμβάνουν εξαιρετικά συμπιεσμένα χρονοδιαγράμματα, οι στρατιωτικοί σχεδιαστές ενδέχεται να αντιμετωπίσουν ισχυρότερα κίνητρα να βασίζονται στην Τεχνητή Νοημοσύνη».
Η μελέτη έρχεται σε μια περίοδο που η Τεχνητή Νοημοσύνη ενσωματώνεται σε στρατούς σε όλο τον κόσμο, συμπεριλαμβανομένων των ΗΠΑ, όπου το Πεντάγωνο φέρεται να χρησιμοποίησε το μοντέλο Claude της Anthropic στην επιχείρηση του Ιανουαρίου για την απαγωγή του προέδρου της Βενεζουέλας Νικολάς Μαδούρο.
Ενώ η Anthropic έχει εκφράσει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης της για τέτοιες επιχειρήσεις, άλλοι κατασκευαστές τεχνητής νοημοσύνης όπως η OpenAI, η Google και η xAI του Elon Musk φέρεται να συμφώνησαν να άρουν ή να αποδυναμώσουν τους περιορισμούς στη στρατιωτική χρήση των μοντέλων τους.
Tο pronews.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το pronews.gr ουδεμία νομική ή άλλα ευθύνη φέρει.
Δικαίωμα συμμετοχής στη συζήτηση έχουν μόνο όσοι έχουν επιβεβαιώσει το email τους στην υπηρεσία disqus. Εάν δεν έχετε ήδη επιβεβαιώσει το email σας, μπορείτε να ζητήσετε να σας αποσταλεί νέο email επιβεβαίωσης από το disqus.com
Όποιος χρήστης της πλατφόρμας του disqus.com ενδιαφέρεται να αναλάβει διαχείριση (moderating) των σχολίων στα άρθρα του pronews.gr σε εθελοντική βάση, μπορεί να στείλει τα στοιχεία του και στοιχεία επικοινωνίας στο info3@pronews.gr και θα εξεταστεί άμεσα η υποψηφιότητά του.