#45 ΔΙΑΛΟΓΟΙ ΤΟΥ ΙΣΝ

Ανθρωπότητα – Τεχνητή Νοημοσύνη: Η συμβίωση

Ένας διάλογος μεταξύ ανθρώπου και Τεχνητής Νοημοσύνης επιχειρήθηκε στην σκηνή της 45ης συνάντησης των ΔΙΑΛΟΓΩΝ, που πραγματοποιήθηκε την Τετάρτη 25 Αυγούστου στο Κέντρο Πολιτισμού Ίδρυμα Σταύρος Νιάρχος (ΚΠΙΣΝ) σε συνεργασία με το SNF Agora Institute στο Πανεπιστήμιο Johns Hopkins.

Κοινό και ομιλητές έθεσαν ερωτήματα προς δυο συστήματα Α.Ι. , που διαμορφώθηκαν ειδικά για τους ΔΙΑΛΟΓΟΥΣ και κλήθηκαν να απαντήσουν «ζωντανά», μπροστά στο κοινό.

Στο πλαίσιο του SNF Nostos και λίγες ώρες πριν την έναρξη του SNF Conference με θέμα Ανθρωπότητα και Τεχνητή Νοημοσύνη, οι ΔΙΑΛΟΓΟΙ του ΙΣΝ, με την συμβολή επιφανών συνομιλητών, έθεσαν επίσης ηθικά, κοινωνικά αλλά και πολιτικά ζητήματα για την συμβίωση ανθρώπων και μηχανών, που παρόλο φαντάζει μακρινή, είναι ήδη εδώ: Τι ρόλο θα αναλάβει η τεχνητή νοημοσύνη στην κοινωνία; Μπορούν τα συστήματα τεχνητής νοημοσύνης να έχουν ηθική; Πρέπει να αποκτήσουν δικαιώματα, όπως των ανθρώπων; Και έχουν ή μπορεί να αναπτύξουν άραγε συναισθηματική νοημοσύνη;

«Υπάρχουν φιλόσοφοι που πρεσβεύουν ότι αν δεν υπάρχει οργανική ύλη από την οποία να προκύψει ζωή, τότε δεν μπορούν να υπάρξουν συναισθήματα όπως πόνος, απόλαυση, επιθυμία, ή πιο σύνθετα όπως φόβος, ή άγχος… Άλλοι όμως φιλόσοφοι θα μας πουν ότι δεν χρειάζεται οργανική ύλη, αλλά ηλεκτρικά κυκλώματα όπως στις μηχανές, δηλαδή μηχανικά μέρη που σταδιακά θα αναπτύσσουν συναισθήματα αλληλοεπιδρώντας με το περιβάλλον, με άλλα ανθρώπινα όντα και μηχανές και θα αναπτύξουν έτσι κάποια κατάσταση νου, μία αίσθηση εαυτού», ανέφερε ο Στέλιος Βιρβιδάκης, Καθηγητής Γνωσιολογίας και Ηθικής Φιλοσοφίας, Τμήμα Ιστορίας και Φιλοσοφίας της Επιστήμης, ΕΚΠΑ ο οποίος συμμετείχε στη συζήτηση των ΔΙΑΛΟΓΩΝ.

«Δεν μπορούμε πάντα να αποφασίζουμε με βάση τη χρήση των αλγορίθμων για ένα ηθικό δίλημμα. Ο Αριστοτέλης μίλησε για φρόνηση, που ισούται με την σοφία, την ευθυκρισία που επιτρέπει σε μια σύνθετη κατάσταση να διακρίνω την συνθετότητα ενός ζητήματος. Οι μηχανές μπορούν άραγε να αναπτύξουν αυτή την φρόνηση, η οποία περιλαμβάνει συναισθήματα, ενσυναίσθηση, και ανάγεται στην συναισθηματική νοημοσύνη; Η ηθική δεν είναι μόνο θέμα υπακοής και αυστηρών, απαρέγκλιτων κανόνων. Αυτό είναι που με ανησυχεί. Ποιο, δηλαδή, ηθικό σύστημα θα χρησιμοποιήσουμε για να τροφοδοτήσουμε μια μηχανή», ανέφερε ο κ. Βιρβιδάκης σχετικά με την ηθική διάσταση της τεχνητής νοημοσύνης επισημαίνοντας πως «οι μηχανές μπορεί να είναι καλές με συνέπεια. Ενώ οι άνθρωποι είμαστε διαβόητα ασυνεπείς στην καλοσύνη μας».

Στη συζήτηση των ΔΙΑΛΟΓΩΝ συμμετείχε και ο Γιώργος Γιαννακόπουλος, Συνεργαζόμενος ερευνητής τεχνητής νοημοσύνης στο ΕΚΕΦΕ «Δημόκριτος» και Συνιδρυτής της SciFY ΑΜΚΕ ο οποίος μίλησε για την «εκπαίδευση» των συστημάτων τεχνητής νοημοσύνης και συγκεκριμένα για τα δυο συστήματα GPT2 και GPT3 που συμμετείχαν στο διάλογο που έγινε στην σκηνή. Το πρώτο σύστημα δημιουργήθηκε με την πολύτιμη βοήθεια του ερευνητή Γιώργου Πετάσση, του Εθνικού Κέντρου Έρευνας Φυσικών Επιστημών Δημόκριτος και του Εργαστηρίου SKEL “The AI Lab” του Ινστιτούτου Πληροφορικής και Τηλεπικοινωνιών. Το δεύτερο σύστημα βασίστηκε στην εφαρμογή Philosopher AI. Στην ερώτηση ποιος δίνει τελικά την απάντηση μέσα από ένα σύστημα τεχνητής νοημοσύνης ο κ. Γιαννακόπουλος απάντησε πως «όταν συμπεριλάβουμε αυτά τα γλωσσικά μοντέλα σε έναν διάλογο, αυτό που βλέπουμε ουσιαστικά είναι έναν αντικατοπτρισμό της ανθρώπινης έκφρασης μέσα από έναν σπασμένο καθρέφτη. Αυτός ο καθρέφτης έχει δημιουργηθεί από την επιστήμη χρησιμοποιώντας δεδομένα για να εκπαιδευτεί το σύστημα. Η ανθρώπινη φύση δεν είναι μόνο προφανής στα γραπτά μας. Όλο το βιωματικό της στοιχείο, όλη η αλληλεπίδραση απουσιάζει από τα συστήματα που είδαμε σήμερα. Έτσι λοιπόν έχουμε έναν σπασμένο αντικατοπτρισμό της ανθρωπότητας όπως αυτή εκφράζεται μέσα από το σύστημα και τροφοδοτείται σε αυτό».

Στο κατά πόσο μπορεί ένα σύστημα τεχνητής νοημοσύνης να είναι δίκαιο αναφέρθηκε ο Ethan Zuckerman, Αναπληρωτής Καθηγητής Δημόσιας Πολιτικής, Επικοινωνίας και Πληροφοριών στο University of Massachusetts, Amherst, σχολιάζοντας πως «ο κίνδυνος που ελλοχεύει στην τεχνητή νοημοσύνη είναι να έχουμε έναν υπολογιστικό κώδικα ο οποίος φαίνεται ότι είναι πολύ ευφυής. Φαίνεται σε μερικές περιπτώσεις ότι τα γνωρίζει όλα και μας δίνει οδηγίες. Το πρόβλημα είναι ότι καταλήγουμε να κωδικοποιούμε τέτοιες μεροληψίες. Ο κίνδυνος λοιπόν στην τεχνητή νοημοσύνη είναι να πάρουμε αυτή τη μεροληψία, να την κωδικοποιήσουμε και να μην μπορούμε πια να την αμφισβητήσουμε. Ποιος είναι ο καλύτερος τρόπος να αντιδράσουμε σε αυτά τα συστήματα τεχνητής νοημοσύνης; Να απαιτήσουμε την διαφάνεια. Να χρησιμοποιήσουμε αυτή την εμπειρία και να καταλάβουμε την μεροληψία του συστήματος, όχι για να αμφισβητήσουμε την τεχνολογία, αλλά για να αμφισβητήσουμε τις κοινωνικές ανισότητες οι οποίες βρίσκονται στη βάση της τεχνολογίας».

Τη συζήτηση των ΔΙΑΛΟΓΩΝ, που υλοποιούνται με την επιμέλεια του μη κερδοσκοπικού δημοσιογραφικού οργανισμού iMEdD (incubator for Media Education and Development), συντόνισαν η Άννα-Κύνθια Μπουσδούκου, Εκτελεστική Διευθύντρια των ΔΙΑΛΟΓΩΝ του ΙΣΝ και Δημοσιογράφος, και η Hahrie Han, Διευθύντρια SNF Agora Institute στο Πανεπιστήμιο Johns Hopkins, ενώ συμμετείχε και ο Project Manager του iMEdD Lab, Θανάσης Τρομπούκης.

Για περισσότερες πληροφορίες και τη συζήτηση on demand.