Press "Enter" to skip to content

Οι μηχανές παίρνουν αποφάσεις

Στο προηγούμενο άρθρο μιλήσαμε για τα κριτήρια με βάση τα οποία μία επιστημονική μέθοδος αξιολογείται ως προς την ηθική της. Στο σημερινό άρθρο θα μιλήσουμε για τις ηθικές προεκτάσεις μίας νέας τεχνολογίας, του Machine Learning, ή αλλιώς, Τεχνικής Εκμάθησης Μηχανών. Με τη βοήθεια της τεχνικής αυτής, μπορούμε να παράξουμε και να διαχειριστούμε μεγάλους όγκους δεδομένων, « διδάσκοντας»  έναν υπολογιστή πώς να το κάνει μόνος του, χωρίς να ακολουθεί τις δικές μας εντολές! Φυσικά, όπως κάθε νέα τεχνολογία, δίπλα στα προτερήματα, υπάρχουν και κίνδυνοι. Όχι μόνο για την κοινωνία, αλλά ενδεχομένως και για την επιστήμη. Επειδή όμως αυτοί οι ορισμοί είναι αυθαίρετοι και λίγα λένε σε όσους από εμάς δεν έχουμε ασχοληθεί με την Τεχνητή Νοημοσύνη, σκέφτηκα πώς θα ήταν καλύτερο να μιλήσω σε κάποιον που μπορεί να μας τα εξηγήσει απλά !

Πήγα στο Ινστιτούτο Αστροφυσικής του Παρισιού (IAP) και μίλησα με τον Hubert Bretonnière που είναι υποψήφιος διδάκτορας του Universite Paris-Sud και περνάει πολύ από το χρόνο του στο Ινστιτούτο Αστροφυσικής των Κανάριων Νήσεων (IAS) εκπαιδεύοντας υπολογιστές για διαστημικές αποστολές. Του ζήτησα να μας μιλήσει για εφαρμογές αυτής της τεχνολογίας στη βιομηχανία, πώς χρησιμοποιεί το Machine Learning στη δουλειά του και τι ηθικά διλήμματα βλέπει στη χρήση της νέας αυτής τεχνολογίας. Πάμε να δούμε τι έχει να μας πει :

– Ψάχνοντας στο διαδίκτυο, νομίζω πως έχω καταλάβει πάνω κάτω τι κάνει ένας κώδικας Machine Learning. Δέχεται δεδομένα και με βάση αυτά, μαθαίνει να αναγνωρίζει άλλα δεδομένα που τους μοιάζουν ή να παράγει παρόμοια πληροφορία. Μπορείς όμως να μας δώσεις μερικά παραδείγματα από τη βιομηχανία ή από την επιστήμη ;

Είναι πραγματικά πιο εύκολο να μιλήσω για τη βιομηχανία, γιατί το 80 % των δημοσιεύσεων στον κλάδο του Machine Learning αφορούν πλατφόρμες όπως η Amazon, η Google και το Facebook. Πρόσφατα παρακολούθησα ένα σεμινάριο εκπαίδευσης στη χρήση Machine Learning στο Facebook και είδα πώς η νέα αυτή τεχνολογία μπορεί να σώσει πολλές εργατοώρες που μπορούν να χρησιμοποιηθούν για πιο παραγωγικούς σκοπούς. Για παράδειγμα, η γνωστή λειτουργία του Facebook να αναγνωρίζει πρόσωπα σε φωτογραφίες βασίζεται στο Machine Learning. « Ταϊζουμε » τον υπολογιστή φωτογραφίες προσώπων και έτσι, μαθαίνει πώς μοιάζουν τα πρόσωπα. Στη συνέχεια, όταν ξαναδει μία φωτογραφία μπορεί να ταυτοποιήσει το κάθε αντικείμενο ως άνθρωπο. ‘Ενα άλλο παράδειγμα αφορά τον έλεγχο περιεχομένου στις διάφορες πλατφόρμες. Παλιότερα, είχαμε διαχειριστές που έλεγχαν το περιεχόμενο των δημοσιεύσεων για προσβλητικές λέξεις ή εικόνες. Πλέον, ταϊζουμε τους υπολογιστές προσβλητικό περιεχόμενο ώστε να το αναγνωρίσουν την επόμενη φορά που θα το δουν και γιατί όχι, να το αποσύρουν χωρίς δική μας εντολή !

– Εσύ πώς χρησιμοποιείς το Machine Learning στην έρευνά σου ;

Είμαι μέλος της αποστολής Euclid που έχει ως μερικό στόχο να συλλέξει δεδομένα για το σχήμα των γαλαξιών και να τους κατηγοροποιήσει. Φυσικά, όταν είχαμε λίγους γαλαξίες από περιορισμένες παρατηρήσεις στη διάθεσή μας, αυτό γινόταν με το χέρι. Κάποια χρόνια μάλιστα υπήρχε και το Galaxy Zoo Project όπου πολίτες μπορούσαν να διαβάσουν και να συμμετέχουν στην κατηγοροποίηση των γαλαξιών. Αλλά όταν εκτοξευθεί το Euclid το 2022, περιμένουμε πάνω από 1.5 δισεκατομμύριο γαλαξίες ! Οπότε χρειαζόμαστε μία πραγματικά ισχυρή μέθοδο που θα αντικαθιστά τη « χειρωνακτική » εργασία με πλήρως αυτοματοποιημένα συστήματα αναγνώρισης και κατηγοριοποίησης των γαλαξιών . Ο περιορισμός που έχουμε όμως είναι ότι δεν κάνουμε πραγματική φυσική. Μπορούμε να εντοπίσουμε συσχετισμούς ανάμεσα σε φυσικά μεγέθη, αλλά όχι να εξηγήσουμε γιατί αυτά υπάρχουν. Για παράδειγμα, στην ομάδα μου, ταϊζουμε τους υπολογιστές ήδη υπάρχοντα δεδομένα για το πως μοιάζουν οι γαλαξίες που έχουν αέριο που περιστρέφεται και αυτοί που αποτελούνται από αέριο που δεν περιστρέφεται. Έτσι, πλέον ένας υπολογιστής μπορεί να τους ταξινομήσει από μόνος του, ανάλογα με το σχήμα. Μπορούμε να εντοπίσουμε δηλαδή το συσχετισμό ανάμεσα στο σχήμα του γαλαξία και στο αέριο που περιέχει, αλλά δε γνωρίζουμε για ποιο λόγο ο συσχετισμός είναι αυτός που είναι.

– Όλα αυτά φαίνονται πολύ ενδιαφέροντα, αλλά και τρομακτικά παράλληλα. Πώς δηλαδή ένας υπολογιστής μπορεί να μάθει, σαν άνθρωπος, και έπειτα να αρχίσει να παίρνει αποφάσεις χωρίς δική μας καθοδήγηση βασιζόμενος σε αυτά που έχει μάθει. Βλέπεις κάποια ηθικά προβλήματα που μπορεί να εγερθούν στο άμεσο μέλλον.

Πριν λίγες μέρες διάβασα ένα άρθρο στους New York Times σχετικά με έναν ιδιαίτερα επίκαιρο κίνδυνο του Machine Learning, τώρα που η προστασία δεδομένων έχει γίνει ζήτημα μείζονος σημασίας [1]. Μιλούσε για κάποιους προγραμματιστές που χρησιμοποιούσαν δεδομένα από κασέτες δημόσιας παρακολούθησης και εκπαίδευσαν το δίκτυό τους να αναγνωρίζει ανθρώπους και να τους ακολουθεί κατά τη διάρκεια της ημέρας τους. Στην ουσία « κλείδωνε » επάνω σε ένα στόχο και τον ακολουθούσε για ένα επιθυμητό χρονικό διάστημα. Επεσήμαναν βέβαια ότι « μπορούμε να χρησιμοποιήσουμε τα δεδομένα, αλλά δε θα το κάνουμε ». Άλλος τομέας που μπορεί να εγείρει ηθικούς προβληματισμούς είναι η βιοϊατρική. Πλέον μπορούμε να εκπαιδεύσουμε υπολογιστές να διαβάζουν DNA και να εντοπίζουν προβληματικά σημεία σε αυτό, αλλά το θέμα είναι πάντα, πώς αυτά τα δεδομένα αξιοποιούνται.

– Έχουμε δει ποτέ κακή χρήση του Machine Learning ;

Πλέον μπορούμε ακόμα και να δημιουργήσουμε δεδομένα με το Machine Learning ! Καινούρια πρόσωπα, καινούρια σώματα. Προφανώς μπορεί να χρησιμοποιηθεί πχ. ώστε να δημιουργεί καινούριους χαρακτήρες σε video games, αλλά έχουμε δει να χρησιμοποιείται και για δημιουργία ψεύτικων βίντεο με δόλιο σκοπό. Κλασσικά παραδείγματα αυτής της τακτικής είναι η χρήση προσώπων σε ταινίες πορνογραφικού περιεχομένου χωρίς τη συναίνεσή τους και σε βίντεο πολιτικού περιεχομένου με σκοπό την προπαγάνδα. Να μην ξεχνάμε επίσης ότι υπάρχει και ο (λογικός) προβληματισμός ότι το Machine Learning μπορεί να αρχίσει να δημιουργεί Machine Learning, δηλαδή ο υπολογιστής να αρχίσει να εκπαιδεύει τον εαυτό του, οπότε πλέον μιλάμε για απώλεια ελέγχου επάνω στις μηχανές. Αλλά είμαστε αρκετά μακριά από αυτό. Δηλαδή ακόμα και τα « έξυπνα αμάξια » που δουλεύουν αναγνωρίζοντας τις πινακίδες, εάν συναντήσουν κάποια πινακίδα που έχει ένα άσχετο αυτοκόλλητο ή κάποιο γκραφίτι επάνω, θα τα παίξουν. Όπως και ένας κώδικας που αναγνωρίζει πχ. εικόνες από γουρούνια, εάν η εικόνα που τον ταϊσουμε έχει παραπάνω « θόρυβο » από όσο πρέπει, ο κώδικας μπορεί να πιστέψει ότι το γουρούνι που του δείχνουμε είναι ένα αεροπλάνο.

– Πώς θα ήθελες να κλείσουμε ;

Κάθε φορά που υπάρχει επιστημονική πρόοδος είναι φυσιολογικό να απασχολούμαστε ως προς το πώς θα μετριάσουμε τις συνέπειές της και το πώς θα βελτιστοποιήσουμε όσα μας δίνει. Ακούμε κατά καιρούς ότι οι νέες τεχνολογίες κλέβουν τις δουλειές των ανθρώπων, αλλά στην πραγματικότητα, είναι απλά μετάθεση, εξέλιξη και αναβάθμιση των θέσεων εργασίας. Οι άνθρωποι που δούλευαν στο να ελέγχουν το περιεχόμενο του Facebook για « κακές λέξεις », πλέον εργάζονται στο να κάνουν τον κώδικα που τις εντοπίζει πιο ακριβή και γρήγορο. Περνάμε από μία εποχή απασχόλησης-ρουτίνας, σε μία εποχή δημιουργικής απασχόλησης, τουλάχιστον στο χώρο της επιστήμης.

[1] https://www.nytimes.com/2019/06/13/us/aclu-surveillance-artificial-intelligence.html

Comments are closed.

© Publica 2017 - 2025