Η προκατειλημμένη AI αλλάζει τις αμερικανικές ζωές. Τι μπορούμε να κάνουμε για αυτό;

Η προκατειλημμένη AI αλλάζει τις αμερικανικές ζωές. Τι μπορούμε να κάνουμε για αυτό;
Η προκατειλημμένη AI αλλάζει τις αμερικανικές ζωές. Τι μπορούμε να κάνουμε για αυτό;

Βίντεο: 3 principles for creating safer AI | Stuart Russell 2024, Ιούλιος

Βίντεο: 3 principles for creating safer AI | Stuart Russell 2024, Ιούλιος
Anonim

Φανταστείτε έναν κόσμο όπου τεχνητά έξυπνοι αλγόριθμοι λαμβάνουν αποφάσεις που επηρεάζουν την καθημερινότητά σας. Τώρα, φανταστείτε ότι είναι προκατειλημμένες.

Αυτός είναι ο κόσμος στον οποίο ζούμε ήδη, λέει ο επιστήμονας δεδομένων, ο Harvard PhD και ο συγγραφέας Cathy O'Neil. (Διαβάστε το πρώτο μέρος της συζήτησής μας με τον Δρ O'Neil εδώ). Κάθισαμε με τον υποψήφιο του National Book Award για να μάθουμε τι μπορούμε να κάνουμε για τις προκαταλήψεις στην εποχή των μεγάλων δεδομένων. CT: Είναι AI προκατειλημμένη;

CO: Όλοι οι αλγόριθμοι που δεν έχουν γίνει σαφώς δίκαιοι θα πρέπει να θεωρηθούν ότι υποβαθμίζονται. Επειδή ως άνθρωποι, είμαστε προκατειλημμένοι. Εάν το αναγνωρίσουμε και δημιουργούμε αυτούς τους αλγορίθμους με τις αξίες και τα δεδομένα μας, τότε δεν πρέπει να υποθέσουμε ότι κάτι έχει συμβεί μαγικά για να γίνει κάτι δίκαιο. Δεν υπάρχει μαγεία εκεί.

CT: Πού παίρνουν τα δεδομένα τους αλγόριθμους;

CO: Εξαρτάται από τον αλγόριθμο. Μερικές φορές, τα κοινωνικά μέσα ενημέρωσης, για πράγματα όπως πολιτική στόχευση αγοράς ή διαφήμιση ή κερδοσκοπικά κολέγια και επιθετική δανεισμού - αλλά πολλά από τα δεδομένα δεν συλλέγονται στα κοινωνικά μέσα ενημέρωσης ή ακόμα και στο διαδίκτυο.

Η συλλογή δεδομένων συνδέεται όλο και περισσότερο με την πραγματική ζωή, όπως την απόκτηση εργασίας, την εργασία σας, το κολέγιο ή τη φυλάκισή σας. Αυτά τα πράγματα δεν είναι πράγματα που μπορούμε να παρακάμψουμε με τους νόμους περί ιδιωτικότητας. Πρόκειται για θέματα εξουσίας, όπου οι άνθρωποι που στοχεύουν οι αλγόριθμοι δεν έχουν εξουσία και οι άνθρωποι που συλλέγουν τις πληροφορίες και κατασκευάζουν και αναπτύσσουν τους αλγόριθμους έχουν όλη τη δύναμη. Δεν έχετε δικαιώματα προστασίας προσωπικών δεδομένων αν είστε κατηγορούμενος ποινικής δίωξης, δεν έχετε δικαιώματα απορρήτου στην δουλειά σας και δεν έχετε πολλά εμπόδια στην προστασία της ιδιωτικής ζωής εάν υποβάλλετε αίτηση για δουλειά επειδή εάν δεν απαντήσετε στις ερωτήσεις που σας ζήτησε ο μελλοντικός εργοδότης σας, τότε πιθανότατα δεν θα πάρετε τη δουλειά.

Πρέπει να σκεφτούμε λιγότερα σχετικά με την προστασία της ιδιωτικής ζωής και περισσότερα σχετικά με την εξουσία όταν πρόκειται για αλγόριθμους και τις βλάβες που μπορεί να προκαλέσουν.

CT: Τι μπορούμε να κάνουμε για να το βελτιώσουμε;

CO: Μπορούμε να αναγνωρίσουμε ότι αυτοί οι αλγόριθμοι δεν είναι εγγενώς τέλειοι και δοκιμάστε τους για τα ελαττώματά τους. Πρέπει να έχουμε μόνιμους ελέγχους και ελέγχους - ειδικά για σημαντικές αποφάσεις, όπως η πρόσληψη, η ποινική δίωξη ή η αξιολόγηση των ανθρώπων στις δουλειές τους - για να βεβαιωθούμε ότι οι αλγόριθμοι ενεργούν με τον τρόπο που τους θέλουμε, όχι με κάποιο είδος διακρίσεων ή άδικου τρόπου.

Image

Ailsa Johnson / © Πολιτιστικό Ταξίδι

CT: Ποιά είναι τα καλύτερα και χειρότερα σενάρια για το μέλλον με βάση τα δεδομένα;

CO: Το σενάριο χειρότερης περίπτωσης είναι αυτό που έχουμε τώρα - ότι όλοι περιμένουμε ότι οι αλγόριθμοι θα είναι τέλειοι, παρόλο που θα πρέπει να γνωρίζουμε καλύτερα μέχρι τώρα. Και διαδίδουμε προηγούμενες αδικίες και αδικίες. Και συνεχίζουμε να αγνοούμε τα ελαττώματα αυτών των αλγορίθμων.

Το καλύτερο σενάριο είναι ότι αναγνωρίζουμε ότι αυτοί οι αλγόριθμοι δεν είναι εγγενώς καλύτεροι από τους ανθρώπους. Αποφασίζουμε τι θέλουμε ως άνθρωπος, αυτό που προσπαθούμε. Αυτό που θέλουμε να μοιάζει η κοινωνία και διδάσκουμε αυτές τις αξίες. Αν το κάνουμε με επιτυχία, αυτοί οι αλγόριθμοι θα μπορούσαν να είναι καλύτεροι από τους ανθρώπους.

CT: Ποιο ρόλο μπορούν να παίξουν οι καθημερινοί άνθρωποι;

CO: Ο σημαντικότερος ρόλος που μπορεί να διαδραματίσει ένα άτομο είναι να μην εμπιστευτεί σιωπηρά οποιονδήποτε αλγόριθμο. Να έχει τεράστιο σκεπτικισμό. Εάν αξιολογείτε σε έναν αλγόριθμο, ρωτήστε 'Πώς μπορώ να ξέρω ότι είναι δίκαιο, πώς μπορώ να ξέρω ότι είναι χρήσιμο, πώς μπορώ να ξέρω ότι είναι ακριβές; Ποιο είναι το ποσοστό σφάλματος; Για ποιον αποτυγχάνει αυτός ο αλγόριθμος; Αποτυγχάνει γυναίκες ή μειονότητες; Ρωτήστε αυτό το είδος ερώτησης.

Το δεύτερο πράγμα, πέρα ​​από το σκεπτικισμό, είναι ότι αν νομίζετε ότι ένας αλγόριθμος είναι άδικο για εσάς ή άλλους ανθρώπους είναι να οργανώσετε με αυτούς τους άλλους ανθρώπους. Ένα πρόσφατο παράδειγμα είναι οι καθηγητές. Τα στατιστικά μοντέλα για τους δασκάλους προστιθέμενης αξίας είναι φοβερές, σχεδόν τυχαίες γεννήτριες αριθμών. Αλλά χρησιμοποιούσαν για να αποφασίσουν τι θα έπρεπε να πάρουν οι καθηγητές και ποιοι εκπαιδευτικοί θα έπρεπε να απολυθούν, σε όλες τις ΗΠΑ.

Η πρότασή μου είναι να μεταφέρουν την ένωσή τους. Και αυτό συνέβη σε ορισμένα μέρη. Αλλά είναι εκπληκτικό πόσο μικρή αντίσταση υπήρχε εξαιτίας της μαθηματικής φύσης του συστήματος βαθμολόγησης.

CT: Πώς μπήκατε σε "μεγάλα δεδομένα";

CO: Δούλεψα στη Wall Street και είδα την οικονομική κρίση από μέσα. Ήμουν αηδιασμένος από τον τρόπο με τον οποίο τα μαθηματικά χρησιμοποιήθηκαν είτε για να εκμεταλλευτούν τους ανθρώπους είτε για να ξεγελάσουν τους ανθρώπους. Είδα το είδος της βλάβης που θα μπορούσε να προέλθει από τα μαθηματικά ψέματα, αυτό που αποκαλώ «οπλοποίηση των μαθηματικών».

Αποφάσισα να ξεφύγω από αυτό, έτσι εγώ εντάχθηκα στην Occupy Wall Street και άρχισα να δουλεύω ως επιστήμονας δεδομένων. Σιγά σιγά συνειδητοποίησα ότι βλέπαμε λανθασμένη και παραπλανητική διαφημιστική εκστρατεία γύρω από παραπλανητικούς αλγόριθμους δεδομένων που συμβαίνουν εκτός της Wall Street, καθώς και ότι αυτό θα οδηγούσε σε πολύ ζημιά. Η διαφορά ήταν ότι ενώ οι άνθρωποι σε όλο τον κόσμο παρατήρησαν την οικονομική κρίση, δεν πίστευα ότι οι άνθρωποι θα παρατηρούσαν τις αποτυχίες αυτών των μεγάλων αλγορίθμων δεδομένων, επειδή συνήθως συμβαίνουν σε ατομικό επίπεδο.

Διαβάστε το πρώτο μέρος της συζήτησής μας με τον Δρ O'Neil εδώ. Το βιβλίο του Dr Cathy O'Neil, Τα όπλα της καταστροφής των μαθηματικών: Πόσο μεγάλα δεδομένα αυξάνουν την ανισότητα και απειλούν τη δημοκρατία, είναι διαθέσιμα τώρα.