Τα συστήματα μηχανικής μάθησης εισχωρούν ολοένα και περισσότερο στην καθημερινή μας ζωή, αμφισβητώντας τις ηθικές και κοινωνικές μας αξίες και τους κανόνες που τις διέπουν. Στις μέρες μας, οι εικονικοί βοηθοί απειλούν την ιδιωτικότητα του σπιτιού, οι προτάσεις να ακολουθούμε συγκεκριμένες ιστοσελίδες διαμορφώνουν τον τρόπο με τον οποίο κατανοούμε τον κόσμο, ενώ τα εργαλεία πρόσληψης που βασίζονται σε δεδομένα κατατάσσουν και τις πιθανότητές σας να βρείτε εργασία στατιστικά. Ωστόσο, η ηθική της μηχανικής μάθησης παραμένει θολή για πολλούς.
Ψάχνοντας για άρθρα σχετικά με το θέμα για τους νέους μηχανικούς που παρακολουθούν το μάθημα «Ηθική και Τεχνολογία Πληροφοριών και Επικοινωνιών» στο UCLouvain του Βελγίου, μου έκανε ιδιαίτερη εντύπωση η περίπτωση του Joshua Barbeau, ενός 33χρονου άνδρα που χρησιμοποίησε έναν ιστότοπο με την ονομασία Project December για να δημιουργήσει ένα ρομπότ συνομιλίας – ένα chatbot – που θα προσομοίωνε τη συνομιλία με την εκλιπούσα αρραβωνιαστικιά του, Jessic.
Ρομπότ συνομιλίας που μιμούνται νεκρούς ανθρώπους
Γνωστό ως deadbot, αυτό το είδος chatbot επέτρεψε στον Barbeau να ανταλλάσσει μηνύματα κειμένου με μια τεχνητή «Jessica». Παρά τον ηθικά αμφιλεγόμενο χαρακτήρα της υπόθεσης, δεν βρήκα υλικό που ξεπερνούσε την απλή πραγματολογική πτυχή και ανέλυε την υπόθεση μέσα από έναν ρητό κανονιστικό φακό: γιατί θα ήταν σωστό ή λάθος, ηθικά επιθυμητό ή καταδικαστέο να αναπτυχθεί ένα deadbot;
Πριν ασχοληθούμε με αυτά τα ερωτήματα, ας θέσουμε τα πράγματα σε ένα πλαίσιο: Το Project December δημιουργήθηκε από τον προγραμματιστή παιχνιδιών Jason Rohrer για να δώσει τη δυνατότητα στους ανθρώπους να προσαρμόζουν chatbots με την προσωπικότητα που ήθελαν να αλληλεπιδρούν, υπό την προϋπόθεση ότι πλήρωναν γι’ αυτό. Το έργο κατασκευάστηκε αντλώντας από ένα API του GPT-3, ενός γλωσσικού μοντέλου που παράγει κείμενο από την εταιρεία έρευνας τεχνητής νοημοσύνης OpenAI. Η περίπτωση του Barbeau άνοιξε ένα χάσμα μεταξύ του Rohrer και της OpenAI, επειδή οι κατευθυντήριες γραμμές της εταιρείας απαγορεύουν ρητά τη χρήση του GPT-3 για σεξουαλικούς, ερωτικούς, αυτοτραυματισμούς ή εκφοβιστικούς σκοπούς.
Αποκαλώντας τη θέση της OpenAI ως υπερ-μοραλιστική και υποστηρίζοντας ότι άνθρωποι όπως ο Barbeau ήταν «συναινούντες ενήλικες», ο Rohrer έκλεισε την έκδοση GPT-3 του Project December. Ενώ όλοι μας μπορεί να έχουμε διαίσθηση για το αν είναι σωστό ή λάθος να αναπτύξουμε ένα deadbot με μηχανική μάθηση, η διατύπωση των συνεπειών του δεν είναι καθόλου εύκολη υπόθεση. Γι’ αυτό είναι σημαντικό να αντιμετωπίσουμε βήμα προς βήμα τα ηθικά ερωτήματα που εγείρει η υπόθεση.
Αρκεί η συγκατάθεση του Barbeau για την ανάπτυξη του deadbot της Jessica;
Εφόσον η Jessica ήταν ένα πραγματικό (αν και νεκρό) πρόσωπο, η συγκατάθεση του Barbeau για τη δημιουργία ενός deadbot που τη μιμείται φαίνεται ανεπαρκής. Ακόμη και όταν πεθαίνουν, οι άνθρωποι δεν είναι απλά πράγματα με τα οποία οι άλλοι μπορούν να κάνουν ό,τι θέλουν. Αυτός είναι ο λόγος για τον οποίο οι κοινωνίες μας θεωρούν λάθος να βεβηλώνουν ή να μην σέβονται τη μνήμη των νεκρών. Με άλλα λόγια, έχουμε ορισμένες ηθικές υποχρεώσεις απέναντι στους νεκρούς, στο βαθμό που ο θάνατος δεν συνεπάγεται απαραίτητα ότι οι άνθρωποι παύουν να υπάρχουν με έναν ηθικά σχετικό τρόπο.
Ομοίως, η συζήτηση είναι ανοιχτή ως προς το κατά πόσον πρέπει να προστατεύουμε τα θεμελιώδη δικαιώματα των νεκρών (π.χ. την ιδιωτική ζωή και τα προσωπικά δεδομένα). Η ανάπτυξη ενός deadbot που αναπαράγει την προσωπικότητα κάποιου απαιτεί μεγάλες ποσότητες προσωπικών πληροφοριών, όπως δεδομένα κοινωνικών δικτύων, τα οποία έχει αποδειχθεί ότι αποκαλύπτουν εξαιρετικά ευαίσθητα χαρακτηριστικά.
Αν συμφωνούμε ότι είναι ανήθικο να χρησιμοποιούμε τα δεδομένα των ανθρώπων χωρίς τη συγκατάθεσή τους όσο είναι εν ζωή, γιατί θα πρέπει να είναι ηθικό να το κάνουμε μετά το θάνατό τους; Υπό αυτή την έννοια, κατά την ανάπτυξη ενός deadbot, φαίνεται λογικό να ζητείται η συγκατάθεση εκείνου του οποίου η προσωπικότητα αντικατοπτρίζεται – στην προκειμένη περίπτωση, της Jessica.
Όταν το άτομο δίνει το πράσινο φως
Συνεπώς, το δεύτερο ερώτημα είναι: θα ήταν αρκετή η συγκατάθεση της Jessica για να θεωρηθεί η δημιουργία του deadbot της ηθική; Τι θα συνέβαινε αν ήταν υποτιμητικό για τη μνήμη της;
Τα όρια της συναίνεσης είναι, πράγματι, ένα αμφιλεγόμενο ζήτημα. Με ποιους συγκεκριμένους όρους κάτι μπορεί να είναι επιζήμιο για τους νεκρούς είναι ένα ιδιαίτερα περίπλοκο ζήτημα που δεν θα αναλυθεί πλήρως εδώ. Αξίζει να σημειωθεί, ωστόσο, ότι ακόμη και αν οι νεκροί δεν μπορούν να πληγωθούν ή να προσβληθούν με τον ίδιο τρόπο όπως οι ζωντανοί, αυτό δεν σημαίνει ότι είναι άτρωτοι σε κακές πράξεις, ούτε ότι αυτές είναι ηθικές. Οι νεκροί μπορεί να υποστούν ζημιές στην τιμή, τη φήμη ή την αξιοπρέπειά τους (για παράδειγμα, εκστρατείες μεταθανάτιας συκοφάντησης), ενώ η έλλειψη σεβασμού προς τους νεκρούς βλάπτει επίσης τους οικείους τους. Επιπλέον, η άσχημη συμπεριφορά απέναντι στους νεκρούς μας οδηγεί σε μια κοινωνία που είναι συνολικά πιο άδικη και σέβεται λιγότερο την αξιοπρέπεια των ανθρώπων.
Λαμβάνοντας υπόψη όλα αυτά, φαίνεται λογικό να συμπεράνουμε ότι αν η ανάπτυξη ή η χρήση του deadbot δεν ανταποκρίνεται σε αυτό που έχει συμφωνήσει το μιμούμενο άτομο, η συγκατάθεσή του θα πρέπει να θεωρηθεί άκυρη. Επιπλέον, εάν βλάπτει σαφώς και σκόπιμα την αξιοπρέπειά τους, ακόμη και η συγκατάθεσή τους δεν θα πρέπει να είναι αρκετή για να θεωρηθεί ηθική.
Ένα άλλο ηθικό ερώτημα είναι ποιος φέρει την ευθύνη για τα αποτελέσματα ενός deadbot – ειδικά στην περίπτωση των επιβλαβών αποτελεσμάτων.
Φανταστείτε το deadbot της Τζέσικα να μάθαινε να αποδίδει με τρόπο που εξευτελίζει τη μνήμη της ή βλάπτει ανεπανόρθωτα την ψυχική υγεία του Barbeau.
Ποιος θα αναλάμβανε την ευθύνη; Οι ειδικοί της τεχνητής νοημοσύνης απαντούν σε αυτό το ολισθηρό ερώτημα μέσω δύο βασικών προσεγγίσεων: πρώτον, η ευθύνη βαρύνει όσους συμμετέχουν στο σχεδιασμό και την ανάπτυξη του συστήματος, εφόσον το κάνουν σύμφωνα με τα ιδιαίτερα συμφέροντα και τις κοσμοθεωρίες τους- δεύτερον, τα συστήματα μηχανικής μάθησης εξαρτώνται από το πλαίσιο, οπότε οι ηθικές ευθύνες των αποτελεσμάτων τους θα πρέπει να κατανέμονται μεταξύ όλων των παραγόντων που αλληλεπιδρούν με αυτά.
Ηθική, υπό ορισμένες προϋποθέσεις
Επανερχόμενοι λοιπόν στο πρώτο, γενικό ερώτημα αν είναι ηθικό να αναπτύξουμε ένα deadbot με μηχανική μάθηση, θα μπορούσαμε να δώσουμε καταφατική απάντηση υπό την προϋπόθεση ότι:
– τόσο το άτομο που μιμείται όσο και εκείνο που το προσαρμόζει και αλληλεπιδρά μαζί του έχουν δώσει την ελεύθερη συγκατάθεσή τους για μια όσο το δυνατόν λεπτομερέστερη περιγραφή του σχεδιασμού, της ανάπτυξης και των χρήσεων του συστήματος,
– απαγορεύονται οι εξελίξεις και οι χρήσεις που δεν τηρούν τα όσα συμφώνησε το μιμούμενο πρόσωπο ή που αντιβαίνουν στην αξιοπρέπειά του,
– τα άτομα που εμπλέκονται στην ανάπτυξή του και όσοι επωφελούνται από αυτό αναλαμβάνουν την ευθύνη για τα πιθανά αρνητικά αποτελέσματά του. Τόσο αναδρομικά, για να λογοδοτήσουν για γεγονότα που έχουν συμβεί, όσο και μελλοντικά, για να αποτρέψουν ενεργά να συμβούν στο μέλλον.
Η περίπτωση αυτή αποτελεί παράδειγμα για ποιο λόγο η ηθική της μηχανικής μάθησης έχει σημασία. Δείχνει επίσης γιατί είναι απαραίτητο να ανοίξει ένας δημόσιος διάλογος που μπορεί να ενημερώσει καλύτερα τους πολίτες και να μας βοηθήσει να αναπτύξουμε μέτρα πολιτικής για να κάνουμε τα συστήματα τεχνητής νοημοσύνης πιο ανοικτά, κοινωνικά δίκαια και συμβατά με τα θεμελιώδη δικαιώματα.
Πηγή:
theconversation.com/deadbots-can-speak-for-you-after-your-death-is-that-ethical-182076