Ρομπότ δολοφόνοι στο πεδίο της μάχης


Η ταχύτατη ανάπτυξη της τεχνολογίας φέρνει πιο κοντά το σενάριο ενός πλήρως αυτοματοποιημένου στρατού και οπλικών συστημάτων που αποφασίζουν ποιον θα σκοτώσουν. Πρέπει να μπουν άμεσα κανόνες, λένε οι ειδικοί

Η ανθρωπότητα βρίσκεται στα πρόθυρα μιας νέας εποχής στο πώς θα διεξάγονται οι πόλεμοι. Οι ραγδαίες εξελίξεις στην τεχνητή νοημοσύνη οδηγούν στη δημιουργία όπλων που μπορούν να εντοπίσουν, να στοχεύσουν και να πάρουν την απόφαση να σκοτώσουν ανθρώπινα όντα. Δεν θα έχουν ανάγκη από αξιωματικούς που θα διευθύνουν την επιχείρηση ή στρατιώτες που θα πατήσουν τη σκανδάλη. Αυτό μεταμορφώνει τάχιστα τη μορφή που θα έχουν οι μελλοντικές πολεμικές συγκρούσεις.

Επισήμως αυτά τα ρομπότ δολοφόνοι ονομάζονται θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS - Lethal Autonomous Weapons Systems). Πολλές χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, της Κίνας, του Ηνωμένου Βασιλείου, της Ινδίας, του Ιράν, του Ισραήλ, της Νότιας Κορέας, της Ρωσίας και της Τουρκίας, έχουν επενδύσει πολλά στην ανάπτυξη τέτοιων όπλων τα τελευταία χρόνια.

Μια έκθεση των Ηνωμένων Εθνών υποστηρίζει ότι τα τουρκικής κατασκευής drones Kargu-2, στην πλήρως αυτόματη λειτουργία τους, σηματοδότησαν την αυγή αυτής της νέας εποχής όταν επιτέθηκαν σε μαχητές στη Λιβύη το 2020 εν μέσω της συνεχιζόμενης σύγκρουσης στη χώρα.

Τα αυτόνομα μη επανδρωμένα αεροσκάφη διαδραματίζουν επίσης κρίσιμο ρόλο στον πόλεμο στην Ουκρανία , όπου τόσο η Μόσχα όσο και το Κίεβο έχουν αναπτύξει αυτά τα χωρίς πλήρωμα όπλα για να στοχεύουν στρατιώτες και υποδομές.

Η εμφάνιση και η ανάπτυξη τέτοιων μηχανών οδηγεί σε έντονες συζητήσεις μεταξύ ειδικών, ακτιβιστών και διπλωματών παγκοσμίως. Οι πιθανοί κίνδυνοι από τη χρήση τέτοιων ρομπότ-δολοφόνων είναι τεράστιοι και ήδη έχει τεθεί το θέμα για το πώς μπορούμε να σταματήσουμε αυτή την εξέλιξη.

Ωστόσο, σε ένα ολοένα και πιο διχασμένο γεωπολιτικό τοπίο, μπορεί η διεθνής κοινότητα να καταλήξει σε οποιαδήποτε συναίνεση σχετικά με αυτές τις μηχανές; Οι ηθικές, νομικές και τεχνολογικές απειλές που δημιουργούν τέτοια όπλα καθιστούν απαραίτητο τον περιορισμό τους πριν καταλάβουν πλήρως το πεδίο της μάχης; Είναι εφικτή όμως μια γενική απαγόρευση ή μια σειρά κανονισμών αποτελεί μια ρεαλιστικότερη επιλογή;

Ουτοπία η πλήρης απαγόρευση

Η πλήρης απαγόρευση των αυτόνομων οπλικών συστημάτων δεν είναι κάτι που πρόκειται να υλοποιηθεί. Ωστόσο αυξάνονται μόνιμα οι φωνές που ζητούν τη ρύθμιση που θα δημιουργήσει ένα παγκόσμιο «ταμπού» χρήσης παρόμοιο με αυτό που υπάρχει για τα χημικά όπλα.  

Η πιθανότητα τα «LAWS» να πυροδοτήσουν μια αλυσιδωτή αντίδραση κλιμακωτών γεγονότων ανησυχεί τον Τόμπι Γουόλς, ειδικό τεχνητής νοημοσύνης στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας στο Σίδνεϊ της Αυστραλίας. «Γνωρίζουμε τι συμβαίνει όταν βάζουμε σύνθετα συστήματα υπολογιστών το ένα εναντίον του άλλου σε ένα αβέβαιο και ανταγωνιστικό περιβάλλον. Λέγεται χρηματιστήριο.

Ο μόνος τρόπος να σταματήσουμε επικίνδυνα κενά ασφαλείας και  ανεπιθύμητα αποτελέσματα είναι να χρησιμοποιήσετε αυτός που λέμε αποκοπή κυκλώματος. Στο χρηματιστήριο, μπορούμε απλά να χαλαρώσουμε τις συναλλαγές όταν συμβαίνει μια τέτοια κατάσταση. Αλλά δεν μπορούμε να χαλαρώσουμε την έναρξη του 3ου Παγκοσμίου Πολέμου» ανέφερε ο Γουόλς.

Οφέλη και το… ταμπού των χημικών

Τονίζει επίσης ότι αυτό δεν σημαίνει ότι οι ερευνητές πρέπει να σταματήσουν να αναπτύσσουν την τεχνολογία η οποία θα μπορούσε να φέρει οφέλη σε άλλους τομείς.

Για παράδειγμα, οι ίδιοι αλγόριθμοι που χρησιμοποιούνται στα στρατιωτικά drones για να εντοπίσουν, να παρακολουθούν και να εξουδετερώσουν τελικά στρατιώτες, μπορούν να χρησιμοποιηθούν σε συστήματα ασφαλείας αυτοκινήτων ώστε να αποφεύγουν τις συγκρούσεις με πεζούς. «Θα ήταν ηθικά λάθος να αρνηθούμε στον κόσμο την ευκαιρία να μειωθούν οι θάνατοι από τροχαία ατυχήματα» είπε ο Γουόλς και τόνισε πως η απάντηση στο να αποφύγουμε τους κινδύνους ίσως να βρίσκεται στη σχετικά επιτυχημένη ρύθμιση χρήσης χημικών όπλων.

Όταν χρησιμοποιούνται χημικά όπλα, γίνονται πρωτοσέλιδο και προκαλούν παγκόσμια κατακραυγή. Η Σύμβαση του ΟΗΕ για τα Χημικά Όπλα απαγορεύει την ανάπτυξη, παραγωγή, αποθήκευση και χρήση τους. Αυτό, σε συνδυασμό με τα διεθνή ταμπού σχετικά με τα χημικά όπλα, σταμάτησε με επιτυχία τη μαζική παραγωγή τους από μεγάλες εταιρείες όπλων.

«Δεν μπορούμε να ξανακλείσουμε το κουτί της Πανδώρας, αλλά αυτά τα μέτρα φαίνεται να έχουν περιορίσει σε μεγάλο βαθμό την κατάχρηση χημικών όπλων στα πεδία των μαχών σε όλο τον κόσμο σήμερα» αναφέρει ο Γουόλς.

Σίγουρα, τα αυτόνομα οπλικά συστήματα που βασίζονται σε τεχνητή νοημοσύνη έχουν τα πλεονεκτήματά τους από στρατιωτική άποψη. Θα μπορούσαν να εκτελέσουν ορισμένες επιχειρήσεις στο πεδίο της μάχης χωρίς τη χρήση ανθρώπινου δυναμικού, μειώνοντας έτσι τον κίνδυνο απωλειών. Οι υποστηρικτές υποστηρίζουν ότι η εξελιγμένη τεχνολογία που είναι ενσωματωμένη σε αυτά τα συστήματα θα μπορούσε να εξαλείψει ή να μειώσει το ανθρώπινο λάθος στη λήψη αποφάσεων και να εξαλείψει τα σφάλματα. Η μεγαλύτερη ακρίβεια στη στόχευση θα μπορούσε, τουλάχιστον θεωρητικά, να μειώσει τις ανθρώπινες απώλειες από ατυχήματα.

Τα αυτόνομα οπλικά συστήματα μπορούν επίσης να αναπτυχθούν για αμυντικές δυνατότητες, με αλγόριθμους ανίχνευσης αστραπιαίας ταχύτητας ικανούς να ανιχνεύουν και να εξαλείφουν μια πιθανή απειλή με μεγαλύτερη αποτελεσματικότητα και ακρίβεια από τους ανθρώπους.

Ωστόσο, για πολλούς ειδικούς και οργανισμούς, οι κίνδυνοι από τα LAWS υπερτερούν των πιθανών πλεονεκτημάτων. Κυμαίνονται από την πιθανότητα τεχνικών δυσλειτουργιών ενός συστήματος χωρίς επίβλεψη έως παραβιάσεις του διεθνούς δικαίου και τις ηθικές ανησυχίες σχετικά με μηχανές χωρίς συναισθήματα που λαμβάνουν αποφάσεις ζωής και θανάτου. Κεντρικό στοιχείο όλων αυτών των ανησυχιών είναι το ζήτημα της λογοδοσίας.

Δεν υπάρχει συμφωνία ούτε στα βασικά

Το 2019, οι 126 συμβαλλόμενες χώρες στη Σύμβαση των Ηνωμένων Εθνών για ορισμένα συμβατικά όπλα (CCW) συμφώνησαν σε 11 κατευθυντήριες αρχές τις οποίες συνέστησε μια ομάδα εμπειρογνωμόνων η οποία διορίστηκε από τον ΟΗΕ για την αντιμετώπιση των ανησυχιών σχετικά με τα αυτοματοποιημένα όπλα.

Μεταξύ αυτών των αρχών ήταν μια απόφαση ότι το διεθνές ανθρωπιστικό δίκαιο θα εφαρμοστεί πλήρως στην πιθανή ανάπτυξη τέτοιων όπλων. Αλλά οι ειδικοί λένε ότι δεν είναι σαφές πώς θα εφαρμοστεί αυτή η αρχή μέσα στην ομίχλη του πολέμου. Εάν ένα ρομπότ διαπράξει ένα έγκλημα πολέμου, για παράδειγμα, θα θεωρηθεί υπεύθυνος ο διοικητής των επιχειρήσεων; Ή μήπως οι ανώτεροι οι οποίοι αποφάσισαν εξ αρχής να αναπτύξουν το οπλικό σύστημα εξαρχής; Θα λογοδοτήσει ο κατασκευαστής του όπλου;

Η συζήτηση πάνω στο θέμα έχει τεράστια κενά καθώς δεν έχει καν συμφωνηθεί τι ακριβώς ορίζεται ως πλήρως αυτοματοποιημένο οπλικό σύστημα. Ήδη κάποια όπλα που χρησιμοποιούνται σήμερα μπορούν να χαρακτηριστούν έτσι καθώς ουσιαστικά παίρνουν αποφάσεις.

«Μιλάμε για μια ικανότητα, μια λειτουργία που μπορεί να χρησιμοποιηθεί σε πολύ διαφορετικούς τύπους οπλικών συστημάτων, που μπορεί να έχει όλα τα σχήματα και μορφές και μπορεί να χρησιμοποιηθεί σε πολύ διαφορετικούς τύπους αποστολών. Επομένως, αν επρόκειτο να απαγορευθεί κάτι θα έπρεπε πρέπει πρώτα να αποσαφηνιστεί ακριβώς ο τύπος όπλου ή το σενάριο που θεωρείτε ιδιαίτερα προβληματικό» αναφέρει ο ερευνητής Βίνσεντ Μπουλανίν και συνέχισε:

«Αντί για μια γενική απαγόρευση, ένα σύνολο κανονισμών δύο επιπέδων θα ήταν πιο ρεαλιστικό σενάριο ορισμένα οπλικά συστήματα να απαγορεύονται και άλλα να επιτρέπονται εάν πληρούν ένα αυστηρό σύνολο απαιτήσεων. Το ερώτημα ενός εκατομμυρίου δολαρίων τώρα είναι, βασικά, ποια είναι τα στοιχεία που εκπίπτουν και στις δύο περιπτώσεις». Είναι ένα ζήτημα πάνω στο οποίο δεν υπάρχει συμφωνία μεταξύ των ισχυρών κρατών.

Η στάση των ισχυρών

Υπάρχει ένας ακόμη πιο θεμελιώδης διχασμός μεταξύ των εθνών σχετικά με τον τρόπο προσέγγισης του ζητήματος των αυτόνομων όπλων: Πρέπει ο κόσμος να αναζητήσει ένα νομικά δεσμευτικό σύνολο κανόνων ή απλώς μια πολιτική δήλωση προθέσεων;

Μια πολιτική δήλωση μπορεί να λάβει πολλές μορφές, αλλά πιθανότατα θα περιλαμβάνει μια δημόσια δήλωση όπου οι μεγάλες δυνάμεις θα δημοσιοποιούν την κοινή τους θέση για το θέμα και θα υπόσχονται να τηρήσουν τα βασικά σημεία που αναφέρονται στο έγγραφο. Αυτό θα μπορούσε να μοιάζει με την κοινή δήλωση της Κίνας, της Ρωσίας, του Ηνωμένου Βασιλείου, των ΗΠΑ και της Γαλλίας για την πρόληψη του πυρηνικού πολέμου και την αποφυγή των αγώνων εξοπλισμών που υπογράφηκε τον Ιανουάριο του 2022, στην οποία επιβεβαίωσαν, μεταξύ άλλων, ότι ένας πυρηνικός πόλεμος «δεν μπορεί ποτέ να βγάλει νικητή και δεν πρέπει ποτέ να συμβεί».

Ο Μπουλανίν είπε ότι είναι ένα ζήτημα για το οποίο τα έθνη «έχουν ριζικά διαφορετικές απόψεις». Η Ρωσία ήταν ξεκάθαρη σχετικά με τις αντιρρήσεις της σε νομικά δεσμευτικά μέσα. Το Ηνωμένο Βασίλειο και οι ΗΠΑ τηρούν επίσης επικριτική στάση, θεωρώντας το ως «πρόωρο» και επιδιώκοντας μια πολιτική δήλωση ως πρώτο βήμα. Κάποια άλλα κράτη, όπως η Κίνα και η Ινδία τηρούν μια πιο διφορούμενη στάση.

Η Κίνα έχει υποστηρίξει την απαγόρευση της χρήσης πλήρως αυτοματοποιημένων όπλων, αλλά όχι της ανάπτυξής τους - μια θέση που συνάδει με την άποψη ότι ορισμένα από τα πιο επικίνδυνα στρατιωτικά εργαλεία του κόσμου, συμπεριλαμβανομένων των πυρηνικών όπλων, μπορούν να χρησιμεύσουν ως αμυντικά-αποτρεπτικά μέσα.

Η εγχώρια βιομηχανία όπλων της Κίνας έχει προχωρήσει σημαντικά στην ανάπτυξη τέτοιας τεχνολογίας, συμπεριλαμβανομένων των μη επανδρωμένων αεροσκαφών Blowfish A2, τα οποία μπορούν να πετούν σε σμήνη και να εμπλέκονται με έναν στόχο χωρίς εντολή. Το διαβαθμισμένο 912 Project  στοχεύει επίσης να αναπτύξει υποβρύχια ρομπότ τα επόμενα χρόνια.

Η Ινδία έχει εκφράσει ανησυχίες για μια νέα κούρσα εξοπλισμών που  θα διευρύνει το τεχνολογικό χάσμα μεταξύ των εθνών και τον πιθανό πολλαπλασιασμό των ρομπότ δολοφόνων. Ταυτόχρονα όμως έχει εντατικοποιήσει την ανάπτυξη των δικών της αυτόνομων οπλικών συστημάτων.

Είναι δύσκολο να καταγραφεί το πόσους πόρους δεσμεύουν οι στρατοί για την ανάπτυξη των LAWS, αλλά μια έκθεση της Διεθνούς Αμνηστίας του 2021 αναφέρει ότι αρκετές μεγάλες στρατιωτικές δυνάμεις «επένδυαν πολύ στην ανάπτυξη αυτοματοποιημένων συστημάτων». Το Ηνωμένο Βασίλειο αναπτύσσει ένα αυτόνομο μη επανδρωμένο drone που θα μπορούσε να αναγνωρίσει έναν στόχο σε μια προγραμματισμένη περιοχή, ενώ η Ρωσία έχει κατασκευάσει ένα άρμα ρομπότ στο οποίο μπορεί να τοποθετηθεί πολυβόλο ή εκτοξευτήρας χειροβομβίδων.

Αυτόνομες λειτουργίες μπορούν επίσης να προστεθούν σε υπάρχουσες ή αναπτυσσόμενες τεχνολογίες, όπως ο αμερικανικός πύραυλος Switchblade 600.

Το… Νότιο Ημισφαίριο έχει πάρει θέση

Η πραγματική αντίδραση εναντίον τέτοιων οπλικών συστημάτων προέρχεται από μεγάλα τμήματα του παγκόσμιου Νότου, ιδιαίτερα της Λατινικής Αμερικής, της Αφρικής και της Μέσης Ανατολής, που ζητούν νομικά δεσμευτικούς κανονισμούς.

Επικεφαλής της εκστρατείας τον τελευταίο καιρό είναι μια χώρα που έχει δείξει ότι η ειρήνη μπορεί να διασφαλιστεί χωρίς στρατό. Τον Φεβρουάριο του 2023, η κυβέρνηση της Κόστα Ρίκα, μαζί με την τοπική μη κυβερνητική οργάνωση FUNPADEM διοργάνωσαν μια περιφερειακή διάσκεψη στην οποία συμμετείχαν εκπρόσωποι σχεδόν από όλες τις χώρες της Λατινικής Αμερικής και της Καραϊβικής.

Το ανακοινωθέν της διάσκεψης, το οποίο υιοθέτησαν περισσότερα από 30 κράτη, τόνισε τους κινδύνους των αυτόνομων οπλικών συστημάτων και κάλεσε τη διεθνή κοινότητα να απαντήσει σε αυτά «αναπτύσσοντας και ενισχύοντας το διεθνές νομικό πλαίσιο». Ο στρατός της Κόστα Ρίκα καταργήθηκε το 1948 και παραμένει μια από τις πιο σταθερές χώρες στην περιοχή.

Στη συνέχεια, στις 25 Μαρτίου 2023, στην Ιβηροαμερικανική Σύνοδο Κορυφής στη Δομινικανή Δημοκρατία, 22 αρχηγοί κρατών ισπανόφωνων και πορτογαλόφωνων χωρών εξέδωσαν κοινή δήλωση, ζητώντας τη «διαπραγμάτευση μιας νομικά δεσμευτικής διεθνούς πράξης , με απαγορεύσεις και κανονισμούς σχετικά με την αυτονομία στα οπλικά συστήματα».

Η ίδια άποψη εκφράστηκε και δύο ημέρες αργότερα, όταν τα κράτη μέλη του Ομίλου του Κεντρικού Αμερικανικού Συστήματος Ολοκλήρωσης, όπως η Μπελίζ, η Κόστα Ρίκα, το Ελ Σαλβαδόρ, η Γουατεμάλα, η Ονδούρα, η Νικαράγουα και ο Παναμάς, υιοθέτησαν παρόμοια δήλωση που ζητούσε επείγουσες διαπραγματεύσεις.

Πολλά έθνη στην Αφρική και τη Μέση Ανατολή - η Αλγερία, η Ναμίμπια, η Γκάνα, η Ουγκάντα, η Ζιμπάμπουε, το Μαρόκο, η Αίγυπτος, η Ιορδανία, το Ιράκ και η Παλαιστίνη μεταξύ αυτών - έχουν ζητήσει την πλήρη απαγόρευση των πλήρως αυτοματοποιημένων οπλικών συστημάτων. Άλλοι, όπως η Νότια Αφρική, έχουν ζητήσει κανονισμούς, αλλά δεν επιδιώκουν πλήρη απαγόρευση.

Έλλειψη εμπιστοσύνης

Οι ειδικοί όμως τονίζουν ότι το βασικό συστατικό για μια ρύθμιση: Η εμπιστοσύνη. Εν μέσω αυξανόμενων γεωπολιτικών εντάσεων, πολλά έθνη ανησυχούν για το αν μπορούν να πιστέψουν σε αυτό που δηλώνουν επισήμως οι αντίπαλες πλευρές.

Αυτή η απουσία εμπιστοσύνης εντοπίζεται σε δύο επίπεδα. Δεδομένου ότι διεθνείς συμβάσεις όπως η CCW εξαρτώνται από τη συναίνεση. «Χρειάζεται μόνο μια χώρα να είναι ανασταλτική για να σταματήσει η πρόοδος των συνομιλιών. Αλλά ακόμα κι αν ένας νέος διεθνής νόμος ή ένα σύνολο κανονισμών θεσπιζόταν, θα εφαρμόζονταν αποτελεσματικά; Αυτό είναι ένα ανοιχτό ερώτημα, επειδή πολλά έθνη «δεν παίζουν πλέον με την τάξη που βασίζεται σε κανόνες» αναφέρει ο Γουόλς.

Ο Μπουλανίν συμφωνεί με αυτές τις ανησυχίες: «Τα κράτη μπορούν να συμφωνήσουν. Αυτό είναι ένα πράγμα αλλά η συμμόρφωση είναι άλλο. Νομίζω ότι ορισμένα κράτη ανησυχούν ότι εάν συμφωνήσουν σε ένα φιλόδοξο ρυθμιστικό πλαίσιο, θα πυροβολούσαν πιθανώς τον εαυτό τους στο πόδι. Εάν οι αντίπαλοί τους δεν έπαιζαν σύμφωνα με τους κανόνες και δεν σταματούσαν την ανάπτυξη LAWS αυτό θα τους έθετε σε στρατηγικό μειονέκτημα, Αυτός ο κίνδυνος, ωστόσο, δεν σημαίνει ότι δεν πρέπει να συνεχίσουμε να προσπαθούμε να συμφωνήσουμε σε νέα πρότυπα υπεύθυνης συμπεριφοράς».

Φυσικά στη συζήτηση τίθεται και το ηθικό ζήτημα των μηχανών που αφαιρούν ζωές ανθρώπων χωρίς να συμμετέχει κανένας άνθρωπος στη διαδικασία λήψης αποφάσεων. Το 2019, ο Γενικός Γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες είπε ότι οι μηχανές με τη δύναμη και τη διακριτικότητα να αφαιρούν ζωές χωρίς ανθρώπινη συμμετοχή ήταν «πολιτικά απαράδεκτες» και «ηθικά αποκρουστικές».

Ακόμα και στρατιωτικοί προβληματίζονται ιδιαίτερα με την ιδέα των ρομπότ δολοφόνων που δεν έχουν ανθρώπινη ενσυναίσθηση να λαμβάνουν τέτοιες κρίσιμες αποφάσεις. «Είναι ασέβεια προς την ανθρώπινη αξιοπρέπεια» τονίζει ο Γουόλς.