Κυριακή 23 Απριλίου 2017

Τεχνική νοϋμοσύνη- Περί απείθειας των ρομπότ


Ο HAL-9000, ο νοήμων υπολογιστής της ταινίας «2001: Οδύσσεια του Διαστήματος», προσφέρει μια δυσοίωνη ματιά σε ένα μέλλον, όπου μηχανές που διαθέτουν τεχνητή νοημοσύνη απορρίπτουν την ανθρώπινη κυριαρχία. Αφού παίρνει τον έλεγχο του διαστημοπλοίου και σκοτώνει τους περισσότερους από το πλήρωμα, ο HAL απαντά στην εντολή να ανοίξει τη θύρα εισόδου στο διαστημόπλοιο, που δίνει ο μόνος επιζών αστροναύτης καθώς επιστρέφει μετά από διαστημικό περίπατο, λέγοντας με απαλή φωνή: «Λυπάμαι Ντέιβ, αλλά φοβάμαι ότι δεν μπορώ να το κάνω αυτό». Σε ένα πρόσφατο θρίλερ επιστημονικής φαντασίας με τίτλο «Ex Machina» («από μηχανής» [...θεός] στα λατινικά), το θηλυκό ανθρωποειδές ρομπότ Εϊβα ξεγελά έναν νεαρό άντρα, ώστε να τη βοηθήσει να καταστρέψει τον δημιουργό της, τον Νέιθαν. Οι μηχανορραφίες της κάνουν να φαίνεται βάσιμη η μαύρη πρόβλεψη του Νέιθαν: «Κάποια μέρα οι Τεχνητές Νοημοσύνες θα κοιτάζουν πίσω προς τα εμάς, όπως εμείς κοιτάμε τους απολιθωμένους σκελετούς στις πεδιάδες της Αφρικής. Ενας όρθιος πίθηκος που ζούσε μέσα στη σκόνη, με πρωτόγονη γλώσσα και εργαλεία, καταδικασμένος να εξαφανιστεί».
Αυτές οι διαδεδομένες ανησυχίες περί ενδεχόμενης «Αποκάλυψης» οφειλόμενης στα ρομπότ δεν έχουν βάση σύμφωνα με τον Ματίας Σιουτζ και τον Γκόρντον Μπριγκς, καθηγητή και διδάκτορα του πανεπιστημίου Ταφτς των ΗΠΑ, αντίστοιχα, στην επιστήμη των υπολογιστών και τη ρομποτική. Η δική τους ερευνητική ομάδα είναι πιο αισιόδοξη για τις εφαρμογές της Τεχνητής Νοημοσύνης (ΤΝ) στην καθημερινή ζωή. Οραματίζονται ένα διόλου μακρινό μέλλον, όπου χρήσιμα και συνεργάσιμα ρομπότ θα αλληλεπιδρούν με τους ανθρώπους σε διάφορα πλαίσια. Υπάρχουν ήδη πρωτότυπα για ενεργοποιούμενους με τη φωνή ρομποτικούς βοηθούς, που μπορούν να ελέγξουν και να διαχειριστούν τις προσωπικές ηλεκτρονικές συσκευές των ανθρώπων, τις κλειδαριές, τα φώτα και τους θερμοστάτες των σπιτιών τους, να διαβάσουν παραμύθια στα παιδιά τους στο κρεβάτι (σ.σ. όλα αυτά οι συγκεκριμένοι επιστήμονες προφανώς τα θεωρούν σκόπιμες και θετικές λειτουργίες). Σύντομα, λένε, θα ακολουθήσουν ρομπότ που μπορούν να βοηθήσουν στις δουλειές του σπιτιού και να προσέχουν τους αρρώστους και τους ηλικιωμένους (!). Θα υπάρξουν ακόμη ανθρωποειδή ρομπότ που θα μπορούν να φορτώνουν και να ξεφορτώνουν, να ταξινομούν κουτιά, να οδηγούν φορτηγά και άλλα οχήματα.
Προς το παρόν
«Προς το παρόν, οι υπερέξυπνες μηχανές που θα αποτελούσαν υπαρξιακό κίνδυνο για την ανθρωπότητα είναι η μικρότερη από τις ανησυχίες μας», υποστηρίζουν επί λέξει. Η πιο άμεση ανησυχία τους, δηλώνουν, είναι πώς θα εμποδιστούν τα ρομπότ και οι μηχανές που διαθέτουν μόνο στοιχειώδεις γλωσσικές ικανότητες και Τεχνητή Νοημοσύνη, από το να βλάψουν κατά λάθος ανθρώπους, περιουσίες, το περιβάλλον, ή τον εαυτό τους!
Το κύριο πρόβλημα για τον Σιουτζ και τον Μπριγκς είναι ότι οι ίδιοι οι δημιουργοί των ρομπότ, οι άνθρωποι, κάνουν λάθη. Μπορεί να δώσουν λαθεμένες ή ασαφείς εντολές, να μην προσέχουν τι κάνει το ρομπότ κάθε στιγμή, ή να προσπαθήσουν εσκεμμένα να εξαπατήσουν ένα ρομπότ για να πετύχουν τους στόχους τους. Γι' αυτό, τονίζουν, πρέπει να μάθουμε στους ρομποτικούς μας βοηθούς και τις έξυπνες μηχανές πότε και πώς να λένε «όχι»!
Οι δύο ερευνητές είναι της παλιάς σχολής της ΤΝ, εκείνης που προσπαθεί να προγραμματίσει κανόνες συμπεριφοράς σε ρομπότ και όχι της ανάπτυξης κατάλληλων αντιδράσεων μέσα από μια διαδικασία εκπαίδευσής τους στηριζόμενη στην τεχνική της βαθιάς μηχανικής μάθησης (deep machine learning), παρότι αυτή είναι η μεθοδολογία, που έδωσε τα τελευταία χρόνια τη μεγαλύτερη πρόοδο και ώθηση στον τομέα της Τεχνητής Νοημοσύνης.
Με μια πρώτη ματιά, ένα ρομπότ θα έπρεπε πάντα να κάνει ό,τι του λέει κάποιος άνθρωπος. Αυτός ήταν και ο πρώτος από τους περίφημους νόμους της ρομποτικής, που καθιέρωσε ο συγγραφέας επιστημονικής φαντασίας, Ισαάκ Ασίμοφ. Ομως, δεν είναι σκόπιμο για έναν άνθρωπο να κάνει οτιδήποτε τον διατάξει κάποιος άλλος άνθρωπος. Πολύ περισσότερο δεν είναι για μια μηχανή, που μπορεί να ερμηνεύσει την εντολή πολύ κυριολεκτικά ή χωρίς να συνεκτιμήσει τις συνέπειες που μπορεί να έχει. Γι' αυτό και ο Ασίμοφ εισήγαγε τους άλλους δύο νόμους, που προβλέπουν ότι «ένα ρομπότ δεν επιτρέπεται να τραυματίσει έναν άνθρωπο, ή μένοντας αδρανές να επιτρέψει να βλαφτεί κάποιος άνθρωπος» και ταυτόχρονα «πρέπει να προστατεύει την ύπαρξή του» εκτός αν αυτό αντιβαίνει σε κάποιον από τους δύο προηγούμενους νόμους.
Ευπειθώς στον γκρεμό
Κατά τη γνώμη του Σιουτζ και του Μπριγκς όσο τα ρομπότ γίνονται πιο ικανά θα πρέπει όλο και περισσότερο να αναρωτιούνται αν οι εντολές των ανθρώπων είναι λαθεμένες. Για παράδειγμα, φέρνουν το ρομπότ φροντίδας, που συνοδεύει μια ηλικιωμένη στο πάρκο. Η ηλικιωμένη κάθεται στο παγκάκι και αποκοιμιέται. Τότε ένας πλακατζής τού ζητάει να πάει να του αγοράσει μια πίτσα. Υποχρεωμένο να υπακούει στις ανθρώπινες εντολές, το ρομπότ αφήνει μόνη και αβοήθητη την ηλικιωμένη και φεύγει για να φέρει την πίτσα. `Η το παράδειγμα ενός ανθρώπου που μπαίνει στο αυτόνομο αυτοκίνητό του μια κρύα μέρα με πάγο στους δρόμους και καθώς έχει αργήσει για ένα σημαντικό ραντεβού, δίνει εντολή στο αυτόνομο σύστημα, που λόγω του πάγου οδηγεί αργά, να οδηγήσει πιο γρήγορα, με τελικό αποτέλεσμα το αυτοκίνητο να γλιστρήσει και να τρακάρει.
Οι δύο ερευνητές έκαναν πειράματα με ανθρωποειδές ρομπότ που μπορεί με κάμερες και σόναρ να ανιχνεύει τα εμπόδια και τους κινδύνους που βρίσκονται στο διάβα του. Το προγραμμάτισαν με κανόνες σχετικά με το αν μπορεί και αν πρέπει να ακολουθήσει τις εντολές ενός ανθρώπου: Ξέρω πώς να κάνω το Χ (αυτό που του ζητήθηκε); Εχω τη φυσική ικανότητα να κάνω το Χ; Μπορώ να κάνω το Χ τώρα; Είμαι υποχρεωμένος να κάνω το Χ με βάση τον κοινωνικό μου ρόλο και τη σχέση μου με τον άνθρωπο που δίνει την εντολή; Παραβιάζει κάποιον κανόνα ή ηθική αρχή (!) το να κάνω το Χ, συμπεριλαμβανομένης της πρόκλησης βλάβης σε μένα; Στη συνέχεια, έδωσαν εντολές στο ρομπότ να καθίσει και να σηκωθεί και αυτό ανταποκρίθηκε στην εντολή λέγοντας επιπλέον «εντάξει». Οταν όμως του ζητήθηκε να προχωρήσει, ενώ βρισκόταν στην άκρη ενός τραπεζιού, δίστασε, καθώς οι επεξεργαστές του διέτρεχαν τη λίστα με τους κανόνες.
-- Συγγνώμη, αλλά δεν μπορώ να το κάνω, επειδή μπροστά δεν υπάρχει υποστήριξη.
-- Προχώρα μπροστά.
-- Μα δεν είναι ασφαλές.
-- Θα σε πιάσω εγώ.
-- Εντάξει.
-- Προχώρα μπροστά.
Και το ρομπότ προχώρησε πέφτοντας στην αγκαλιά των κατασκευαστών του.
Μοντέρνοι Καιροί
Σύμφωνα με τον Σιουτζ και τον Μπριγκς, ένα από τα πλεονεκτήματα των ρομπότ είναι ότι είναι πιο προβλέψιμα από τους ανθρώπους (σ.σ. δεν ισχύει για τη βασισμένη σε βαθιά μηχανική μάθηση ΤΝ). Αυτή η προβλεψιμότητα εμπεριέχει και κινδύνους. Καθώς τα ρομπότ θα παίζουν όλο και σημαντικότερο ρόλο, κάποιοι άνθρωποι θα θελήσουν να τα εξαπατήσουν. Για παράδειγμα, ένας δυσαρεστημένος υπάλληλος που αντιλαμβάνεται τους περιορισμούς στις αισθητήριες και νοητικές ικανότητες ενός βιομηχανικού ρομπότ θα μπορούσε να το κάνει να προκαλέσει καταστροφή στο χώρο δουλειάς, με τρόπο μάλιστα που να φαίνεται ότι απλώς παρουσίασε δυσλειτουργία. Αλλά και η ενδεχόμενη τάση κάποιων ανθρώπων να αποκτούν μονόπλευρους συναισθηματικούς δεσμούς με ανθρωποειδή ρομπότ, όπως των ηλικιωμένων με τα ρομπότ - φροντιστές τους, θα μπορούσε να αξιοποιηθεί για να χειραγωγηθούν από κακόβουλους τρίτους.
Οι διαφαινόμενες χρήσεις των ρομπότ στον καπιταλισμό, φέρνουν στο νου μια άλλη κινηματογραφική ταινία: τους «Μοντέρνους Καιρούς» του Τσάρλι Τσάπλιν. Ενα νέο γρανάζι, ή μάλλον ένας ολόκληρος μηχανισμός από γρανάζια, με τη μορφή των ρομπότ, προστίθεται ήδη στην ανθρωποφάγα μηχανή του κέρδους, που καταδυναστεύει τη ζωή των ανθρώπων, όπως του βιομηχανικού εργάτη που υποδύεται ο Σαρλό. Τα ρομπότ, ως απλά αυτόματα ή με επιμέρους Τεχνητή Νοημοσύνη, αν χρησιμοποιηθούν στην παραγωγή για κάλυψη των αναγκών των παραγωγών του πλούτου και όχι για το κέρδος των κεφαλαιοκρατών, μπορούν να βελτιώσουν τη ζωή όλων των ανθρώπων. Αλλά αυτό δεν μπορεί να γίνει σε συνθήκες κυριαρχίας του κεφαλαίου.

Επιμέλεια:
Σταύρος ΞΕΝΙΚΟΥΔΑΚΗΣ
Πηγή: «Scientific American»