«Στο τέλος θα θυμόμαστε, όχι τα λόγια των εχθρών μας, αλλά, την σιωπή των φίλων μας»
«Το ποιο επικίνδυνο από όλα τα ηθικά διλήμματα είναι όταν, είμαστε υποχρεωμένοι να κρύβουμε την αλήθεια για να βοηθήσουμε την αλήθεια να νικήσει»
«Με αγαπάς;», θα πάρει την απάντηση «Δεν είμαι ικανή να αγαπήσω»!



«Συγγνώμη, δεν σας άκουσα». Αυτή ίσως ήταν η πρώτη φράση «ενσυναίσθησης», από μηχανή που κυκλοφόρησε στο εμπόριο, έξω από τους τοίχους των εργαστηρίων.

Προς το τέλος της δεκαετίας του 1990, μια εταιρεία με έδρα τη Βοστόνη των ΗΠΑ άρχισε να προμηθεύει άλλες εταιρείες με λογισμικό εξυπηρέτησης πελατών, προγραμματισμένο να χρησιμοποιεί αυτήν τη φράση, όταν δεν καταλάβαινε τι του ζητήθηκε.

Στα χρόνια που πέρασαν συνηθίσαμε να μιλάμε με μηχανές. Σχεδόν κάθε κλήση σε κέντρο εξυπηρέτησης πελατών αρχίζει με μια συζήτηση με ρομπότ. Εκατοντάδες εκατομμύρια άνθρωποι έχουν όλη μέρα μέσα στην τσέπη τους έναν έξυπνο προσωπικό βοηθό, με τη μορφή της τεχνητής νοημοσύνης (ΤΝ) των σύγχρονων κινητών τηλεφώνων, από την οποία ζητούν να καλέσει τους φίλους τους, να βρει εστιατόριο, ή να βάλει να παίζει ένα τραγούδι που αρέσει στον κάτοχο του τηλεφώνου.

Συχνά αυτές οι απλές εκδοχές τεχνητής νοημοσύνης εμφανίζουν συμπεριφορά που έχει αρκετή ομοιότητα με αυτή των ανθρώπων, ώστε να προκαλεί αμηχανία.

Αν κάποιος ρωτήσει μια απ’ αυτές: «Με αγαπάς;», θα πάρει την απάντηση «Δεν είμαι ικανή να αγαπήσω»!

Πρέπει να μας καταλαβαίνουν ουσιαστικά

Αλλά, έτσι κι αλλιώς, οι μηχανές δεν απαντούν πάντοτε όπως θα θέλαμε. Το λογισμικό αναγνώρισης ομιλίας κάνει λάθη. Οι μηχανές συχνά αποτυγχάνουν να αντιληφθούν τις προθέσεις των συνομιλητών τους. Δεν αντιλαμβάνονται το συναίσθημα και το χιούμορ, τον σαρκασμό και την ειρωνεία.

Αν στο μέλλον πρόκειται να αφιερώνουμε περισσότερο χρόνο για να αλληλεπιδρούμε μ’ αυτές – και αυτό είναι μάλλον σίγουρο, είτε πρόκειται για έξυπνες ηλεκτρικές σκούπες, είτε για ρομποτικές ανθρωποειδείς νοσοκόμες – πρέπει να πετύχουμε να αντιλαμβάνονται κάτι περισσότερο από τις λέξεις που λέμε: Πρέπει να μας καταλαβαίνουν ουσιαστικά.

Πρέπει να «καταλαβαίνουν» και να «μοιράζονται» τα ανθρώπινα συναισθήματα ή τουλάχιστο να δείχνουν ότι το κάνουν: Να έχουν ή να δείχνουν ότι έχουν ενσυναίσθηση.

Τουλάχιστον αυτό θεωρεί η Πασκάλ Φουνγκ, καθηγήτρια μηχανικής των υπολογιστών και ηλεκτρονικής μηχανικής στο πανεπιστήμιο Επιστήμης και Τεχνολογίας του Χονγκ Κονγκ. Κατά την άποψή της, «τα ρομπότ με ενσυναίσθηση μπορεί να είναι μεγάλη βοήθεια προς την κοινωνία. Δεν θα είναι απλώς βοηθοί – θα είναι σύντροφοι. Θα είναι φιλικά και ένθερμα, καταλαβαίνοντας τις φυσικές και συναισθηματικές μας ανάγκες. Θα μαθαίνουν από τις αλληλεπιδράσεις τους με τους ανθρώπους.

Θα κάνουν τη ζωή μας καλύτερη και τη δουλειά μας πιο αποτελεσματική. Θα ζητούν συγγνώμη για τα λάθη τους και θα ζητούν την άδεια πριν προχωρήσουν σε κάποια δράση. Θα φροντίζουν τους ηλικιωμένους και θα διδάσκουν τα παιδιά μας (!). Ίσως σώσουν και τη ζωή μας σε κάποια κρίσιμη κατάσταση, θυσιάζοντας τον εαυτό τους – μια πράξη υπέρτατης ενσυναίσθησης».

Η Φουνγκ εργάζεται πάνω σε Τεχνητή Νοημοσύνη βασισμένη σε μηχανική μάθηση, που θα γίνεται πιο «έξυπνη» και – όπως ελπίζει – με μεγαλύτερη ενσυναίσθηση, όσο αλληλεπιδρά με τους ανθρώπους και συγκεντρώνει περισσότερα δεδομένα.

Σημειωτέον, στην αγορά υπάρχουν ήδη μερικά ρομπότ που μπορούν να μιμηθούν την ύπαρξη συναισθημάτων, ρομπότ όπως η Pepper, ένας μικρός ανθρωποειδής βοηθός κατασκευασμένος από γαλλική εταιρεία για λογαριασμό μιας ιαπωνικής και το Jibo, ένας επιτραπέζιος προσωπικός βοηθός.

Το πεδίο των ρομπότ με «ενσυναίσθηση» βρίσκεται ακόμη στα σπάργανα, αλλά τα εργαλεία και οι αλγόριθμοι που θα οδηγήσουν σε μεγάλη και απότομη βελτίωση των μηχανών στον τομέα αυτόν έχουν ήδη κάνει την εμφάνισή τους.

Ενστάσεις

Υπάρχουν, βέβαια, ενστάσεις σε αυτήν τη συλλογιστική και τη στόχευση, όπως εκφράζεται από την Φουνγκ και άλλους.

Η δημιουργία μιας καλοκάγαθης Τεχνητής Νοημοσύνης, που να «νιώθει» τον άνθρωπο, ίσως θα ήταν εφικτή σε έναν κόσμο χωρίς καταστροφικές αντιθέσεις, την καταπίεση, τον πόλεμο, το ψέμα, τις διακρίσεις. Ειδικά η ΤΝ μηχανικής μάθησης, δηλαδή η ΤΝ που δεν έχει «γραμμένες στην πέτρα» τις οδηγίες συμπεριφοράς της, αλλά μαθαίνει αλληλεπιδρώντας, έχει ήδη αποδειχτεί ότι πολύ εύκολα γίνεται εικόνα της προβληματικής σημερινής κοινωνίας, φτάνοντας ακόμη και σε ρατσιστικές αντιλήψεις.

Το γνώρισε ήδη η «Microsoft» το 2016 με την ΤΝ «Τέι» (Tay.ai), που παρίστανε τον άνθρωπο και συμμετείχε σε συζητήσεις σε μέσα κοινωνικής δικτύωσης, όταν αυτή μέσα σε λίγες ώρες υιοθέτησε ρατσιστικές θέσεις, καθώς χειραγωγήθηκε από κάποια «καλά παιδιά» του διαδικτύου.

Ταυτόχρονα, όσο καλοπροαίρετα κι αν γίνεται, δεν παύει να είναι ανατριχιαστική η σκέψη και μόνο, τα ρομπότ να διδάσκουν τα παιδιά μας. 

Θα μάθουν τα παιδιά την ανθρωπιστική παιδεία από τις μηχανές; 

Θα μάθουν απ’ αυτές την άμιλλα και την αγάπη στον άνθρωπο; 

Πώς θα αντιμετωπίσει ένα ρομπότ έναν άτακτο μαθητή; 

Πώς θα αξιολογήσει ένα ρομπότ κάποιον μαθητή ιδιαίτερα ευαίσθητο στην αποτυχία και την απόρριψη;

Σε τελευταία ανάλυση είναι δυνατόν οι μηχανές να αποκτήσουν πραγματική ενσυναίσθηση απέναντι στον άνθρωπο, όταν δεν νιώθουν πόνο, κούραση, αγάπη, όταν δεν έχουν βιώσει όλες τις αλλαγές, τις χαρές, τις λύπες, τις εντάσεις, τις γαλήνιες στιγμές που νιώθει ένας άνθρωπος μεγαλώνοντας;

Μπορούν να αποκτήσουν αναλύοντας την αλληλεπίδρασή τους με τους ανθρώπους την ίδια ενσυναίσθηση με εκείνη που αποκτά ο άνθρωπος βιώνοντας ο ίδιος αυτήν την αλληλεπίδραση;

Μπορούμε να καταλάβουμε αν π.χ. ο σκύλος μας είναι χαρούμενος ή λυπημένος, αλλά μπορούμε να πούμε ότι είμαστε ικανοί να νιώσουμε ακριβώς όπως νιώθει;

Πώς μια μηχανή, ένα κατασκεύασμα που απέχει πολύ περισσότερο απ’ ό,τι απέχουν ο σκύλος και ο άνθρωπος που είναι και οι δύο βιολογικά όντα, θα μπορέσει ποτέ να «νιώσει» πραγματικά πώς νιώθει ο άνθρωπος με τον οποίο αλληλεπιδρά;

https://ecozen.gr

Post a Comment

Παρακαλώ να γράφετε με Ελληνικούς χαρακτήρες και να είστε κόσμιοι στις εκφράσεις σας. Οποιοδήποτε άλλο σχόλιο με γκρικλις και ξένη γλώσσα θα διαγράφετε. Ευχαριστώ!

"Πολλά είναι αυτά που λέγονται και δεν γίνονται, πολλά είναι επίσης αυτά που γίνονται και δεν λέγονται"