Οι χρήστες του Facebook που παρακολούθησαν πρόσφατα ένα βίντεο από μια βρετανική εφημερίδα με μαύρους άνδρες είδαν μια αυτοματοποιημένη προτροπή από το κοινωνικό δίκτυο που ρωτούσε αν θα ήθελαν να «συνεχίσουν να βλέπουν βίντεο για τα Πρωτεύοντα ζώα», οθώντας την εταιρεία να ερευνήσει και να απενεργοποιήσει τη λειτουργία τεχνητής νοημοσύνης που έστειλε το μήνυμα.
Το Facebook ζήτησε συγγνώμη για αυτό που αποκάλεσε «απαράδεκτο σφάλμα» και είπε ότι εξετάζει τη δυνατότητα σύστασης για να «αποτρέψει αυτό το σφάλμα να συμβεί ξανά». Το βίντεο, με ημερομηνία 27 Ιουνίου 2020, ήταν της The Daily Mail και περιελάμβανε κλιπ από μαύρους άντρες σε διαμάχες με λευκούς πολίτες και αστυνομικούς. Δεν είχε καμία σχέση με πιθήκους ή πρωτεύοντα.
Η Darci Groves, πρώην υπεύθυνη σχεδιασμού περιεχομένου στο Facebook, είπε ότι ένας φίλος της είχε στείλει πρόσφατα ένα στιγμιότυπο οθόνης με το συγκεκριμένο μήνυμα. Στη συνέχεια, το δημοσίευσε σε ένα φόρουμ ανατροφοδότησης προϊόντων για τρέχοντες και πρώην υπαλλήλους του Facebook. Σε απάντηση, ένας διαχειριστής προϊόντων για το Facebook Watch, η υπηρεσία βίντεο της εταιρείας, το χαρακτήρισε «απαράδεκτο» και είπε ότι η εταιρεία «εξετάζει τη βασική αιτία». Η κ. Γκρόουβς είπε ότι η προτροπή ήταν «τρομακτική και φρικτή».
Ο Ντάνι Λέβερ, εκπρόσωπος του Facebook, είπε σε δήλωσή του: «Όπως έχουμε πει, ενώ έχουμε κάνει βελτιώσεις στην τεχνητή νοημοσύνη, γνωρίζουμε ότι δεν είναι τέλεια και έχουμε ακόμα να κάνουμε περισσότερη πρόοδο. Ζητούμε συγγνώμη από όποιον μπορεί να έχει δει αυτές τις προσβλητικές συστάσεις».
Η Google, η Amazon και άλλες τεχνολογικές εταιρείες βρίσκονται υπό έλεγχο εδώ και χρόνια για προκαταλήψεις στα συστήματα τεχνητής νοημοσύνης τους, ιδιαίτερα σε θέματα φυλής. Μελέτες έχουν δείξει ότι η τεχνολογία αναγνώρισης προσώπου είναι προκατειλημμένη έναντι των έγχρωμων ατόμων και έχει μεγαλύτερο πρόβλημα με τον εντοπισμό τους, οδηγώντας σε περιστατικά όπου οι μαύροι έχουν υποστεί διακρίσεις ή έχουν συλληφθεί λόγω λάθους στον υπολογιστή.
Σε ένα παράδειγμα το 2015, οι Φωτογραφίες Google χαρακτήρισαν εσφαλμένα τις φωτογραφίες των Μαύρων ως «γορίλες», για τις οποίες η Google δήλωσε ότι «λυπάται πραγματικά» και θα εργαστεί για να διορθώσει το ζήτημα αμέσως. Πάνω από δύο χρόνια αργότερα, η Wired διαπίστωσε ότι η λύση της Google ήταν να λογοκρίνει τη λέξη «γορίλα» από τις αναζητήσεις, ενώ αποκλείει επίσης τους «χιμπατζή» και «μαϊμού».
Το Facebook διαθέτει ένα από τα μεγαλύτερα αποθετήρια εικόνων που έχουν ανεβάσει οι χρήστες στον κόσμο, για να εκπαιδεύσει τους αλγόριθμους αναγνώρισης προσώπου και αντικειμένου. Η εταιρεία, η οποία προσαρμόζει περιεχόμενο στους χρήστες με βάση τις συνήθειες περιήγησης και προβολής τους, μερικές φορές ρωτά τους ανθρώπους εάν θα ήθελαν να συνεχίσουν να βλέπουν αναρτήσεις σε σχετικές κατηγορίες. Δεν ήταν σαφές εάν τα μηνύματα όπως τα «πρωτεύοντα» ήταν διαδεδομένα.
Το Facebook και η εφαρμογή κοινής χρήσης φωτογραφιών του, Instagram, έχουν αντιμετωπίσει άλλα θέματα που σχετίζονται με τη φυλή. Μετά το Ευρωπαϊκό Πρωτάθλημα Ιουλίου στο ποδόσφαιρο, για παράδειγμα, τρία μαύρα μέλη της εθνικής ομάδας ποδοσφαίρου της Αγγλίας βίωσαν φυλετικό ρατσισμό στο κοινωνικό δίκτυο επειδή έχασαν πέναλτι στο παιχνίδι του πρωταθλήματος.
Τα φυλετικά ζητήματα έχουν επίσης προκαλέσει εσωτερικές διαμάχες στο Facebook. Το 2016, ο Mark Zuckerberg, διευθύνων σύμβουλος, ζήτησε από τους υπαλλήλους να σταματήσουν τη φράση “Black Lives Matter” και να την αντικαταστήσουν με “All Lives Matter” σε έναν κοινόχρηστο χώρο στην έδρα της εταιρείας Menlo Park, Καλιφόρνια. Εκατοντάδες εργαζόμενοι πραγματοποίησαν επίσης μια εικονική έξοδο πέρυσι για να διαμαρτυρηθούν για τον χειρισμό της εταιρείας σε μια θέση του Προέδρου Donald J. Trump σχετικά με τη δολοφονία του George Floyd στη Μινεάπολη.
Η εταιρεία προσέλαβε αργότερα έναν αντιπρόεδρο πολιτικών δικαιωμάτων και δημοσίευσε έλεγχο πολιτικών δικαιωμάτων. Σε ετήσια έκθεση ποικιλομορφίας τον Ιούλιο, το Facebook δήλωσε ότι το 4,4 % των υπαλλήλων του με έδρα στις ΗΠΑ ήταν μαύροι, από 3,9 % το προηγούμενο έτος. Η κυρία Γκρόουβς, η οποία έφυγε από το Facebook το καλοκαίρι μετά από τέσσερα χρόνια, είπε σε μια συνέντευξη ότι μια σειρά από λάθη στην εταιρεία έδειξαν ότι η αντιμετώπιση φυλετικών προβλημάτων δεν ήταν προτεραιότητα για τους ηγέτες της. «Το Facebook δεν μπορεί να συνεχίσει να κάνει αυτά τα λάθη και στη συνέχεια να λέει« συγγνώμη», είπε.
Add Comment