πριν 14 ώρες
OMEGANEWS: Αύξηση των σημείων διέλευσης ζητά ο...
πριν 14 ώρες
OMEGANEWS: Δεν θα επισκεφθεί τελικά τον Λευκό...
πριν 16 ώρες
Δείτε απόψε στο OMEGANEWS (28 Μαρτίου 2024)
πριν 16 ώρες
Τα αυτόνομα όπλα (ή αλλιώς «φονικά ρομπότ»- killer robots) που αναπτύσσονται θα μπορούσαν να προκαλέσουν έναρξη πολέμου κατά λάθος ή να προβούν σε κτηνωδίες, προειδοποίησε πρώην κορυφαία μηχανικός λογισμικού της Google.
Όπως αναφέρεται σε δημοσίευμα του Guardian, η Λόρα Νόλαν, που έχει παραιτηθεί πέρυσι από τη Google, διαμαρτυρόμενη επειδή την έστειλαν να δουλέψει σε ένα πρόγραμμα για τη βελτίωση της αμερικανικής τεχνολογίας στρατιωτικών drone, ζητά να απαγορευτούν πλήρως τα όπλα τεχνητής νοημοσύνης που δεν ελέγχονται από ανθρώπους.
Η Νόλαν είπε πως τα φονικά ρομπότ που δεν ελέγχονται μέσω τηλεχειρισμού από ανθρώπους θα έπρεπε να καταστούν παράνομα με διεθνή συνθήκη όπως αυτή που απαγορεύει τα χημικά όπλα.
Αντίθετα με τα drones, που ελέγχονται εξ αποστάσεως από χειριστές σε μεγάλες αποστάσεις (συχνά χιλιάδες χιλιόμετρα μακριά) η Νόλαν είπε πως τα φονικά ρομπότ έχουν τη δυνατότητα για «καταστρεπτικά πράγματα, για τα οποία δεν είχαν προγραμματιστεί αρχικά».
Δεν υπάρχει κάτι που να δείχνει ότι η Google εμπλέκεται στην ανάπτυξη αυτόνομων οπλικών συστημάτων. Τον προηγούμενο μήνα επιτροπή του ΟΗΕ συζήτησε το θέμα των αυτόνομων όπλων και διαπίστωσε ότι η Google αποστρέφεται και απορρίπτει τη χρήση ΑΙ σε οπλικά συστήματα.
Η Νόλαν, που συμμετέχει στην καμπάνια κατά των φονικών ρομπότ (Campaign to Stop Killer Robots) και έχει ενημερώσει διπλωμάτες του ΟΗΕ στη Νέα Υόρκη και τη Γενεύη για το θέμα, είπε πως «το ενδεχόμενο μιας καταστροφής είναι ανάλογο με το πόσες τέτοιες μηχανές θα βρίσκονται ταυτόχρονα σε μια περιοχή. Αυτό που έχετε μπροστά σας είναι πιθανές κτηνωδίες και παράνομους φόνους, ειδικά εάν βρίσκονται εκεί εκατοντάδες χιλιάδες από αυτές τις μηχανές. Θα μπορούσαν να υπάρξουν μεγάλης κλίμακας ατυχήματα επειδή αυτά τα πράγματα θα αρχίσουν να συμπεριφέρονται με απρόσμενους τρόπους. Για αυτόν τον λόγο, οποιαδήποτε προηγμένα συστήματα θα έπρεπε να υπόκεινται σε ουσιώδη ανθρώπινο έλεγχο, αλλιώς πρέπει να απαγορευτούν επειδή είναι πολύ απρόβλεπτα και επικίνδυνα».
Η Google πήρε τη Νόλαν για να εργαστεί στο Project Maven το 2017, αφού είχε δουλέψει για τον κολοσσό ήδη για τέσσερα χρόνια, εξελισσόμενη σε μια εκ των κορυφαίων μηχανικών λογισμικού της εταιρείας στην Ιρλανδία. Όπως είπε, με το πέρασμα του χρόνου ανησυχούσε όλο και περισσότερο για τον ρόλο της στο πρόγραμμα, που είχε σκοπό να βοηθήσει το Πεντάγωνο στον κλάδο της τεχνολογίας video recognition για drones: Συγκεκριμένα, αυτό που ζητήθηκε από την ίδια και άλλους ήταν να αναπτύξουν ένα σύστημα όπου τεχνητή νοημοσύνη θα εντόπιζε ανθρώπους και αντικείμενα σε βίντεο με μεγάλη ταχύτητα. Σημειώνεται ότι η Google εγκατέλειψε το σχετικό συμβόλαιο τον Μάρτιο, αφού πάνω από 3.000 εργαζόμενοί της υπέγραψαν κείμενο κατά της εμπλοκής της εταιρείας στο συγκεκριμένο αντικείμενο.
Αν και παραιτήθηκε εξαιτίας του προγράμματος, η Νόλαν προβλέπει πως τα αυτόνομα όπλα που αναπτύσσονται αποτελούν πολύ μεγαλύτερη απειλή για την ανθρωπότητα από ό,τι τα τηλεχειριζόμενα drones. Η ίδια έχει περιγράψει διάφορα ενδεχόμενα που θα μπορούσαν να οδηγήσουν σε καταστροφικά αποτελέσματα.
«Θα μπορούσαμε να έχουμε ένα σενάριο όπου αυτόνομα όπλα τα οποία έχουν αποσταλεί για να κάνουν μια δουλειά έρχονται αντιμέτωπα με απρόσμενα σήματα ραντάρ σε μια περιοχή όπου κάνουν έρευνες, θα μπορούσε εκεί να υπάρχουν καιρικά φαινόμενα που δεν έχουν ληφθεί υπόψιν στον προγραμματισμό, ή να πέσουν πάνω σε μια ομάδα ανθρώπων που φέρουν όπλα και θεωρηθεί ότι είναι αντάρτες, ενώ στην πραγματικότητα κυνηγούν. Η μηχανή δεν έχει τη δυνατότητα διάκρισης ή κοινής λογικής που έχει ο άνθρωπος. Το άλλο επίφοβο για αυτά τα αυτόνομα οπλικά συστήματα είναι πως μπορείς να τα δοκιμάσεις στην πραγματικότητα μόνο στέλνοντάς τα σε μια πραγματική εμπόλεμη ζώνη. Ίσως αυτό να συμβαίνει με τους Ρώσους αυτή τη στιγμή στη Συρία, ποιος ξέρει; Αυτό που ξέρουμε είναι πως στα Ηνωμένα Έθνη η Ρωσία έχει αντιταχθεί σε οποιαδήποτε συνθήκη, πόσο μάλλον απαγόρευση σε αυτά τα όπλα…αν δοκιμάζεις μια μηχανή που λαμβάνει τις δικές της αποφάσεις σχετικά με τον κόσμο γύρω μας, πρέπει να γίνεται σε πραγματικό χρόνο. Άλλωστε πώς εκπαιδεύεις ένα σύστημα που λειτουργεί αποκλειστικά με λογισμικό να διακρίνει ανθρώπινες συμπεριφορές, ή διαφορές μεταξύ κυνηγών και ανταρτών; Πώς διακρίνει μια φονική μηχανή που πετάει μόνη της εκεί έξω έναν 18χρονο μαχητή από έναν 18χρονο που κυνηγάει λαγούς;»