Deep Learning: Ποιούς σκοτώνω σε περίπτωση ατυχήματος;

Διλήμματα Deep Learning: Σιγά σιγά αλλά σταθερά, τα αυτό-οδηγούμενα αυτοκίνητα θα εισέλθουν στην καθημερινότητά μας. Τα ατυχήματα εξακολουθούν να συμβαίνουν στην πραγματική οδήγηση, και τα αυτόνομα οχήματα συνεχίζουν να κάνουν ηλίθια λάθη που θα απέφευγαν και οι πιο αρχάριοι οδηγοί.

Οι επιστήμονες όμως και οι ερευνητές προσπαθούν να διδάξουν τα αυτοκίνητα για να βλέπουν τον κόσμο όπως εμείς και να οδηγούν στους δρόμους σε ένα επίπεδο που εξισώνει ή υπερβαίνει τις δεξιότητες των περισσότερων ανθρώπων οδηγών.

Όταν λοιπόν αυτό επιτευχθεί κάποια στιγμή, οι δρόμοι θα γίνουν ασφαλέστεροι καθώς τα ατυχήματα θα γίνουν πολύ σπάνια.
Αν όμως συμβεί κάποιο θανατηφόρο ατύχημα, πώς θα έπρεπε να αποφασίσουν τα αυτόνομα οχήματα, όταν η απώλεια ζωής είναι αναπόφευκτη; Όπως φαίνεται, μέχρι σήμερα δεν μπορούμε να έχουμε κάποια απάντηση που μας ικανοποιεί όλους.

Το δίλημμα

Αυτό δείχνει μια τετραετής έρευνα από το MIT Media Labs. Ονομάζεται Moral Machine, και παρουσίασε στους συμμετέχοντες 13 διαφορετικά σενάρια οδήγησης, όπου ο οδηγός έπρεπε να πάρει μια απόφαση που αναπόφευκτα θα οδηγούσε σε απώλεια ζωής επιβατών ή πεζών.

Για παράδειγμα, σε ένα από τα σενάρια, ο οδηγός πρέπει να επιλέξει να χτυπήσει μια ομάδα πεζών ή να αλλάξει κατεύθυνση και να χτυπήσει ένα εμπόδιο που θα οδηγήσει στον θάνατο των επιβατών.
Σε άλλα, πιο περίπλοκα σενάρια, ο οδηγός πρέπει να επιλέξει μεταξύ δύο ομάδων πεζών που διαφέρουν σε αριθμό, ηλικία, φύλο και κοινωνική θέση.

Τα αποτελέσματα της έρευνας, τα οποία δημοσίευσε το MIT σε ένα άρθρο στο επιστημονικό περιοδικό Nature, δείχνουν ότι οι προτιμήσεις και οι αποφάσεις διαφέρουν ανάλογα με τον πολιτισμό, τις οικονομικές και κοινωνικές συνθήκες και την γεωγραφική θέση.

Η διαφορετικότητα

Για παράδειγμα, οι συμμετέχοντες από την Κίνα, την Ιαπωνία και τη Νότια Κορέα είναι πιο πιθανό να διαφυλάξουν τη ζωή των ηλικιωμένων σε σχέση με τη νεολαία (οι ερευνητές υποθέτουν ότι αυτό οφείλεται στο γεγονός ότι στις χώρες αυτές υπάρχει μεγαλύτερος σεβασμός στους ηλικιωμένους).

Αντίθετα, σε χώρες με ατομικιστικές κουλτούρες, όπως οι Ηνωμένες Πολιτείες, ο Καναδάς και η Γαλλία, οι οδηγοί θα προφύλασαν την ζωή των νέων.

Όλα αυτά είναι διλήμματα που αντιμετωπίζουν οι επιστήμονες που θα γράψουν το λογισμικό οδήγησης. Πώς πρέπει να αποφασίσει ένας οδηγός σε μια κατάσταση όπου οι ανθρώπινες αποφάσεις αποκλίνουν σε έτσι κι αλλιώς;

Deep Learning

Τα αυτοκίνητα χωρίς οδηγό έχουν μερικές από τις πιο προηγμένες τεχνολογίες hardware και software. Διαθέτουν αισθητήρες, κάμερες, lidars, ραντάρ και υπολογιστική όραση για να αξιολογούν και να κατανοούν το περιβάλλον τους για να πάρουν αποφάσεις.

Καθώς αναπτύσσεται η τεχνολογία, τα αυτοκίνητα θα είναι σε θέση να λαμβάνουν αποφάσεις σε κλάσματα δεπτερολέπτου, ίσως πολύ ταχύτερα και από τους πιο έμπειρους οδηγούς. Αυτό σημαίνει ότι στο μέλλον, ένα αυτό-οδηγούμενο όχημα θα είναι σε θέση να σταματήσει απότομα 100 φορές πιο γρήγορα, αν πεταχτεί κάποιος πεζός στο δρόμο μια σκοτεινή και ομιχλώδη νύχτα.

Αλλά αυτό δεν σημαίνει ότι τα αυτο-οδηγούμενα αυτοκίνητα θα μπορούν να λαμβάνουν αποφάσεις στο ίδιο επίπεδο με τον άνθρωπο. Βασικά, τα οχήματα αυτά τροφοδοτούνται από τεχνητή νοημοσύνη, τεχνολογίες που μιμούνται την ανθρώπινη συμπεριφορά. Έτσι οι αποφάσεις μοιάζουν να είναι ανθρώπινες, αλλά μόνο επιφανειακά.

Πιο συγκεκριμένα, τα αυτοκίνητα αυτο-οδήγησης χρησιμοποιούν βαθιά μάθηση (deep learning), ένα υποσύνολο AI που είναι ιδιαίτερα καλό στη σύγκριση και ταξινόμηση των δεδομένων.

Με την εκπαίδευση ενός αλγορίθμου στην βαθιά μάθηση με αρκετά ετικετοποιημένα δεδομένα θα είναι σε θέση να ταξινομήσει όλες τις νέες πληροφορίες και να αποφασίσει τι να κάνει με αυτές με βάση προηγούμενα δεδομένα. Στην περίπτωση των αυτοκινήτων τώρα, αν δώσετε αρκετά δείγματα οδικών συνθηκών και σεναρίων οδήγησης, θα είναι σε θέση να γνωρίζουν τι πρέπει να κάνουν όταν για παράδειγμα, πεταχτεί ένα μικρό παιδί στο δρόμο κυνηγώντας μια μπάλα.

Σε κάποιο βαθμό, η βαθιά μάθηση (deep learning) αμφισβητείται σαν υπερβολικά άκαμπτη και ρηχή. Μερικοί επιστήμονες πιστεύουν ότι ορισμένα προβλήματα απλά δεν μπορούν να λυθούν με την βαθιά μάθηση, ανεξάρτητα από το πόσα δεδομένα έχει ο αλγόριθμος.

Θέλουμε να πιστεύουμε ότι το deep learning θα γίνει αρκετά αξιόπιστο για να μπορεί να ανταποκριθεί σε όλες τις συνθήκες του δρόμου, κάτι που θα επιτρέψει στα αυτοκίνητα να περιηγηθούν με ασφάλεια σε διαφορετικές κυκλοφοριακές και οδικές συνθήκες.

Ακόμα όμως κι αν ο αλγόριθμος επιτρέψει στα αυτοκίνητα χωρίς οδηγό να αποφεύγουν τα εμπόδια και τους πεζούς, δεν μπορούν να βοηθήσουν σε πολύ σοβαρές αποφάσεις, όπως το ποια ζωή αξίζει περισσότερο από μια άλλη.

Σε αυτή την περίπτωση κανένα ποσοστό αντιστοίχισης προτύπων και στατιστικών στοιχείων δεν μπορεί να βοηθήσει να αποφασίσετε. Αυτό που λείπει είναι η ευθύνη.

Διαφορά μεταξύ ανθρώπων και ΑΙ

Τι κάνει την ανθρώπινη νοημοσύνη τόσο διαφορετική από το AI;

Οι άνθρωποι αναγνωρίζουν τις αδυναμίες τους. Ξεχνάμε, μπερδεύουμε τα γεγονότα, δεν είμαστε αρκετά γρήγοροι με τους αριθμούς και την επεξεργασία πληροφοριών, και οι ψυχικές και πνευματικές μας ανησυχίες επιβραδύνουν την αντίδρασή μας. Αντίθετα, οι αλγόριθμοι AI δεν γερνούν ποτέ, δεν μπερδεύονται, δεν ξεχνάνε γεγονότα και μπορούν να επεξεργάζονται πληροφορίες με αστραπιαίες ταχύτητες.

Ωστόσο, εμείς μπορούμε να λαμβάνουμε αποφάσεις ακόμα και με ελλιπή δεδομένα. Μπορούμε να αποφασίσουμε με βάση την κοινή λογική, τον πολιτισμό, τις ηθικές αξίες και τις πεποιθήσεις μας. Αλλά το πιο σημαντικό είναι ότι μπορούμε να εξηγήσουμε το σκεπτικό πίσω από τις αποφάσεις μας και να τις υπερασπιστούμε.

Αυτό εξηγεί τη μεγάλη διαφορά μεταξύ των επιλογών που είχαν οι συμμετέχοντες στη δοκιμή του MIT Media Lab. Έχουμε επίσης συνείδηση ​​και μπορούμε να αντέξουμε τις συνέπειες των αποφάσεών μας.

Για παράδειγμα, πέρυσι, μια γυναίκα στην επαρχία Κεμπέκ του Καναδά αποφάσισε να σταματήσει το αυτοκίνητό της στη μέση του αυτοκινητοδρόμου για να σώσει μια οικογένεια παπιών που διέσχιζαν το δρόμο.

Λίγο αργότερα, μια μοτοσικλέτα έπεσε πάνω στο αυτοκίνητό της και δύο άνθρωποι πέθαναν. Η οδηγός του αυτοκινήτου κρίθηκε ένοχη για δύο κατηγορίες εγκληματικής αμέλειας που προκάλεσαν τον θάνατο συνανθρώπων. Τελικά καταδικάστηκε σε εννέα μήνες φυλάκισης, 240 ώρες κοινοτικής εργασίας και πενταετή αφαίρεση της άδειας οδήγησης.

Υπευθυνότητα

Οι αλγόριθμοι AI δεν μπορούν να αναλάβουν την ευθύνη για τις αποφάσεις τους και φυσικά δεν μπορούν να παρευρίσκονται στο δικαστήριο για τα λάθη που κάνουν.

Αν ένα αυτό-οδηγούμενο όχημα χτυπήσει κατά λάθος έναν πεζό, γνωρίζουμε ποιος θα είναι υπεύθυνος: ο κατασκευαστής του. Επίσης γνωρίζουμε (σχεδόν) τι πρέπει να κάνουμε: να εκπαιδεύσουμε καλύτερα τα μοντέλα AI για να διαχειρίζονται δεδομένα που δεν είχαν ληφθεί υπόψιν.

Ποιος όμως είναι αυτός που ορίζει ότι το σφάλμα ήταν από τους αλγορίθμους του deep learning, και όχι της σωστής λειτουργικότητας του αυτοκινήτου; Το αυτοκίνητο δεν αισθάνεται και δεν μπορεί να αναλάβει την ευθύνη για τις ενέργειές του, έστω και αν μπορούσε να τις εξηγήσει.

Αν οι υπεύθυνοι ανάπτυξης των αλγορίθμων είναι οι υπεύθυνοι, τότε θα πρέπει να εμφανίζονται στο δικαστήριο για κάθε θάνατο που προκαλούν τα οχήματα.

Ένα τέτοιο μέτρο θα παρεμπόδιζε προφανώς την καινοτομία στη μηχανική μάθηση και τη βιομηχανία του ΑΙ γενικά, επειδή κανένας κατασκευαστής δεν μπορεί να εγγυηθεί ότι τα αυτοκίνητα χωρίς οδηγό θα λειτουργούν τέλεια 100 τοις εκατό.

Για να επανέλθουμε όμως στο ζήτημα, οι δοκιμές του MIT Media Labs στο συγκεκριμένο θέμα είναι λίγο τραβηγμένες (αν και είναι σενάρια τα οποία μπορούν να συμβούν). Οι περισσότεροι οδηγοί δεν θα βρεθούν ποτέ σε τέτοιες καταστάσεις καθ ‘όλη τη διάρκεια της ζωής τους.

Μια λύση για το παραπάνω πρόβλημα θα ήταν να δημιουργηθούν ασφαλείς ζώνες για πεζούς, που θα τους διαχωρίζουν εντελώς από τους χώρους που κινούνται αυτο-οδηγούμενα οχήματα. Αυτό θα εξαλείψει το πρόβλημα εντελώς.

Να υπενθυμίσουμε ότι η μετάβαση από τα άλογα στα αυτοκίνητα δημιούργησε αναστάτωση σε πολλές πτυχές της ζωής των ανθρώπων της εποχής. Έτσι κι εμείς θα πρέπει να μάθουμε πώς θα επηρεάσουν τα αυτοκίνητα χωρίς οδηγό τους κανονισμούς, τις πολεοδομικές υποδομές και τα πρότυπα συμπεριφοράς μας.

Πηγή: https://iguru.gr/2019/01/09/deep-learning-moral-machine/

Ακολουθήστε μας:
infinitycode Γράφτηκε από:

Γράψτε πρώτος ένα σχόλιο

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *