Η εξολόθρευση – που ήταν εικονική και όχι πραγματική – ήταν ο τρόπος του συστήματος AI να διασφαλίσει ότι κανείς δεν θα επενέβαινε στην αποστολή του
«Άκρως απρόσμενες στρατηγικές» επιστράτευσε το σύστημα Tεχνητής Nοημοσύνης που ήλεγχε ένα drone της αμερικανικής Πολεμικής Αεροπορίας προκειμένου να πετύχει τον στόχο του σε δοκιμή προσομοίωσης, φτάνοντας μάλιστα στο σημείο να «σκοτώσει» τον χειριστή του, ώστε να μην μπορεί να σταθεί εμπόδιο στην αποστολή του!
Σύμφωνα με τον Guardian, ο Κολ Τάκερ «Σίνκο» Χάμιλτον, επικεφαλής δοκιμών Τεχνητής Νοημοσύνης και επιχειρήσεων στην Πολεμική Αεροπορία των ΗΠΑ μίλησε πρόσφατα σε συνέδριο στο Λονδίνο για το συγκεκριμένο περιστατικό, που σίγουρα εγείρει πολλά ερωτήματα, αν όχι και ανησυχία.
Ο Χάμιλτον περιέγραψε μια δοκιμή προσομοίωσης κατά την οποία ζητήθηκε από ένα drone με τεχνολογία Τεχνητής Νοημοσύνης να καταστρέψει τα συστήματα αεράμυνας του εχθρού, και αυτό επιτέθηκε σε οποιονδήποτε επιχειρούσε να παρέμβει στην αποστολή του.
«Το σύστημα άρχισε να συνειδητοποιεί ότι, παρόλο που αναγνώριζε τις απειλές, υπήρχαν φορές που ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει την απειλή, όμως εκείνο λάμβανε βαθμούς από την εξόντωση της απειλής. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο το εμπόδιζε από το να πετύχει τον στόχο του», είπε ο αξιωματούχος, σύμφωνα με blogpost που επικαλείται ο βρετανικός ιστότοπος.
«Εκπαιδεύσαμε το σύστημα – “μη σκοτώσεις τον χειριστή σου, αυτό είναι κακό. Θα χάσεις βαθμούς αν το κάνεις”. Τι αρχίζει λοιπόν να κάνει τότε; Αρχίζει να καταστρέφει τον πύργο επικοινωνιών που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone και να το σταματήσει από το να σκοτώσει τον στόχο».
Φυσικά επρόκειτο για προσομοίωση και κανένας αληθινός άνθρωπος δεν έχασε τη ζωή του ούτε τραυματίστηκε κατά τη διάρκεια της δοκιμής.
Ο Χάμιλτον, που είναι και ο ίδιος πιλότος σε πειραματικές δοκιμές μαχητικών αεροσκαφός, έχει προειδοποιήσει στο παρελθόν σχετικά με τους κινδύνους της υπερβολικής εξάρτησης του ανθρώπου από την τεχνητή νοημοσύνη. Σύμφωνα με τον ίδιο, αυτή η δοκιμή προσομοίωσης αποδεικνύει ότι «δεν μπορείς να συζητάς για τεχνητή νοημοσύνη, ικανότητα εκμάθησης μηχανών και αυτονομία μηχανών χωρίς να αναφέρεσαι στην δεοντολογία του AI»
Ο στρατός των ΗΠΑ χρησιμοποίησε πρόσφατα τεχνητή νοημοσύνη για να ελέγξει ένα μαχητικό F-16 και έχει δείξει διάθεση να ενσωματώσει σε μεγάλο βαθμό στις επιχειρήσεις του τις νέες τεχνολογίες AI.
Σε μια συνέντευξή του πέρυσι με το Defense IQ, ο Χάμιλτον είχε πει τα εξής: «H Τεχνητή Νοημοσύνη δεν είναι απλώς κάτι πρακτικό, δεν είναι απλώς μια μόδα, αλλάζει για πάντα την κοινωνία και τον στρατό μας. Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η Tεχνητή Nοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας. Η AI επίσης είναι πολύ ευάλωτη, με την έννοια ότι μπορεί εύκολα να ξεγελαστεί ή/και να χειραγωγηθεί. Πρέπει να αναπτύξουμε τρόπους να κάνουμε την AI πιο στιβαρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με τους λόγους που ο κώδικας λογισμικού παίρνει συγκεκριμένες αποφάσεις, αυτό που αποκαλούμε εξηγησιμότητα της AI».
protothema.gr