Η φυλετική προκατάληψη του αλγόριθμου Twitter υποδεικνύει μεγαλύτερο τεχνολογικό πρόβλημα

Πίνακας περιεχομένων:

Η φυλετική προκατάληψη του αλγόριθμου Twitter υποδεικνύει μεγαλύτερο τεχνολογικό πρόβλημα
Η φυλετική προκατάληψη του αλγόριθμου Twitter υποδεικνύει μεγαλύτερο τεχνολογικό πρόβλημα
Anonim

Βασικά Takeaways

  • Το Twitter ελπίζει να διορθώσει αυτό που οι χρήστες αποκαλούν φυλετική προκατάληψη στο λογισμικό προεπισκόπησης εικόνων τους.
  • Η έκκληση του τεχνολογικού γίγαντα μπορεί να είναι ο πολιτιστικός απολογισμός που χρειάζεται η βιομηχανία για να αντιμετωπίσει ζητήματα διαφορετικότητας.
  • Η έλλειψη διαφορετικότητας της τεχνολογίας βλάπτει την αποτελεσματικότητα των τεχνολογικών προόδων της.
Image
Image

Το Twitter πρόκειται να ξεκινήσει μια έρευνα για τον αλγόριθμό του για την περικοπή εικόνων, αφού έγινε δημοφιλές θέμα που οδήγησε σε μεγαλύτερη συζήτηση για θέματα διαφορετικότητας στον κλάδο της τεχνολογίας.

Ο δολοφόνος των μέσων κοινωνικής δικτύωσης έγινε πρωτοσέλιδο αφού οι χρήστες ανακάλυψαν προφανή φυλετική προκατάληψη στον αλγόριθμο προεπισκόπησης εικόνων. Η ανακάλυψη έγινε αφότου ο χρήστης του Twitter Colin Madland χρησιμοποίησε την πλατφόρμα για να επικαλεστεί την αποτυχία του Zoom να αναγνωρίσει τους μαύρους συναδέλφους του που χρησιμοποιούσαν την τεχνολογία πράσινης οθόνης, αλλά σε μια μεγάλη επίδειξη ειρωνείας, διαπίστωσε ότι ο αλγόριθμος περικοπής εικόνας του Twitter συμπεριφέρθηκε με παρόμοιο τρόπο και έδωσε προτεραιότητα στα μαύρα πρόσωπα.

Σίγουρα, είναι ένα τεράστιο ζήτημα για κάθε μειονότητα, αλλά νομίζω ότι υπάρχει και ένα πολύ ευρύτερο ζήτημα.

Άλλοι χρήστες μπήκαν στην τάση, πυροδοτώντας μια σειρά από viral tweet που έδειχναν ότι ο αλγόριθμος έδινε σταθερά προτεραιότητα στα λευκά και πιο ανοιχτόχρωμα πρόσωπα, από ανθρώπους μέχρι χαρακτήρες κινουμένων σχεδίων και ακόμη και σκύλους. Αυτή η αποτυχία είναι ενδεικτική ενός ευρύτερου πολιτιστικού κινήματος στον κλάδο της τεχνολογίας που αποτυγχάνει συνεχώς να λογοδοτήσει για μειονοτικές ομάδες, οι οποίες έχουν διαχυθεί και στην τεχνική πλευρά.

"Κάνει τις μειονότητες να αισθάνονται απαίσια, σαν να μην είναι σημαντικές, και μπορεί να χρησιμοποιηθεί για άλλα πράγματα που μπορεί να προκαλέσουν πιο σοβαρή βλάβη στη συνέχεια", Erik Learned-Miller, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Μασαχουσέτης, είπε σε τηλεφωνική συνέντευξη."Μόλις αποφασίσετε για ποιον σκοπό μπορεί να χρησιμοποιηθεί ένα λογισμικό και όλες τις βλάβες που μπορεί να προκύψουν, τότε αρχίζουμε να μιλάμε για τρόπους ελαχιστοποίησης της πιθανότητας να συμβούν."

Canary στο χρονοδιάγραμμα

Το Twitter χρησιμοποιεί νευρωνικά δίκτυα για αυτόματη περικοπή εικόνων που είναι ενσωματωμένες σε tweets. Ο αλγόριθμος υποτίθεται ότι ανιχνεύει πρόσωπα για προεπισκόπηση, αλλά φαίνεται να έχει μια αξιοσημείωτη μεροληψία λευκού. Η εκπρόσωπος της εταιρείας Liz Kelley δημοσίευσε στο Twitter μια απάντηση σε όλες τις ανησυχίες.

Ο Kelley έγραψε στο Twitter, "ευχαριστώ όλους όσους το έθεσαν αυτό. Δοκιμάσαμε για μεροληψία πριν στείλουμε το μοντέλο και δεν βρήκαμε στοιχεία φυλετικής ή φυλετικής προκατάληψης στις δοκιμές μας, αλλά είναι σαφές ότι έχουμε περισσότερη ανάλυση για κάνουμε. θα ανοίξουμε την εργασία μας, ώστε οι άλλοι να μπορούν να ελέγξουν και να αναπαράγουν."

Συγγραφέας της λευκής βίβλου "Facial Recognition Technologies in The Wild: A Call for a Federal Office", ο Learned-Miller είναι κορυφαίος ερευνητής σχετικά με τις υπερβολές του λογισμικού εκμάθησης τεχνητής νοημοσύνης που βασίζεται στο πρόσωπο. Συζητά τον πιθανό αρνητικό αντίκτυπο του λογισμικού εκμάθησης εικόνας εδώ και χρόνια και έχει μιλήσει για τη σημασία της δημιουργίας μιας πραγματικότητας όπου αυτές οι προκαταλήψεις θα μετριάζονται στο μέγιστο των δυνατοτήτων τους.

Πολλοί αλγόριθμοι για την τεχνολογία αναγνώρισης προσώπου χρησιμοποιούν σύνολα αναφοράς για δεδομένα, συχνά γνωστά ως σύνολα εκπαίδευσης, τα οποία είναι μια συλλογή εικόνων που χρησιμοποιούνται για τον ακριβή συντονισμό της συμπεριφοράς του λογισμικού εκμάθησης εικόνων. Επιτρέπει τελικά στην τεχνητή νοημοσύνη να αναγνωρίζει εύκολα μια ευρεία γκάμα προσώπων. Ωστόσο, αυτά τα σύνολα αναφοράς μπορεί να μην έχουν μια διαφορετική ομάδα, οδηγώντας σε προβλήματα όπως αυτά που αντιμετωπίζει η ομάδα του Twitter.

"Σίγουρα, είναι ένα τεράστιο ζήτημα για κάθε μειονότητα, αλλά νομίζω ότι υπάρχει και ένα πολύ ευρύτερο ζήτημα", είπε ο Learned-Miller. "Σχετίζεται με την έλλειψη διαφορετικότητας στον τομέα της τεχνολογίας και την ανάγκη για μια κεντρική, ρυθμιστική δύναμη που θα δείχνει τις σωστές χρήσεις αυτού του είδους ισχυρού λογισμικού επιρρεπούς σε κακή χρήση και κατάχρηση."

Τεχνολογία Χωρίς Ποικιλομορφία

Το Twitter μπορεί να είναι η πιο πρόσφατη εταιρεία τεχνολογίας στο μπλοκ κοπής, αλλά αυτό απέχει πολύ από το να είναι νέο πρόβλημα. Ο τομέας της τεχνολογίας παραμένει ένας κυρίως λευκός, διαρκώς ανδροκρατούμενος τομέας και οι ερευνητές έχουν διαπιστώσει ότι η έλλειψη διαφορετικότητας προκαλεί αντιγραφή συστημικών, ιστορικών ανισορροπιών στο αναπτυγμένο λογισμικό.

Σε μια έκθεση του 2019 από το Ινστιτούτο AI Now του Πανεπιστημίου της Νέας Υόρκης, οι ερευνητές διαπίστωσαν ότι οι μαύροι αποτελούν λιγότερο από το 6 τοις εκατό του εργατικού δυναμικού στις κορυφαίες εταιρείες τεχνολογίας στη χώρα. Ομοίως, οι γυναίκες αντιπροσωπεύουν μόνο το 26 τοις εκατό των εργαζομένων στον τομέα - μια στατιστική χαμηλότερη από το μερίδιό τους το 1960.

Κάνει τις μειονότητες να αισθάνονται απαίσια, σαν να μην είναι σημαντικές, και μπορεί να χρησιμοποιηθεί για άλλα πράγματα που μπορεί να προκαλέσουν πιο σοβαρή βλάβη στη γραμμή.

Επιφανειακά, αυτά τα ζητήματα αναπαράστασης μπορεί να φαίνονται εγκόσμια, αλλά στην πράξη, η βλάβη που προκαλείται μπορεί να είναι βαθιά. Οι ερευνητές στην έκθεση του Ινστιτούτου AI Now προτείνουν ότι αυτό σχετίζεται αιτιολογικά με ζητήματα με το λογισμικό που συχνά αποτυγχάνει να λάβει υπόψη του μη λευκούς και μη ανδρικούς πληθυσμούς. Είτε πρόκειται για διανομείς σαπουνιού υπερύθρων που δεν ανιχνεύουν πιο σκούρο δέρμα είτε για το λογισμικό AI της Amazon που αποτυγχάνει να διαφοροποιήσει τα γυναικεία πρόσωπα από αυτά των ανδρών ομολόγων τους, η αποτυχία αντιμετώπισης της διαφορετικότητας στον κλάδο της τεχνολογίας οδηγεί σε αποτυχία της τεχνολογίας να αντιμετωπίσει έναν διαφορετικό κόσμο.

"Υπάρχουν πολλοί άνθρωποι που δεν έχουν σκεφτεί τα ζητήματα και δεν συνειδητοποιούν πραγματικά πώς αυτά τα πράγματα μπορούν να προκαλέσουν βλάβη και πόσο σημαντικές είναι αυτές οι βλάβες", πρότεινε η Learned-Miller σχετικά με την εκμάθηση εικόνων AI. "Ας ελπίσουμε ότι αυτός ο αριθμός των ανθρώπων συρρικνώνεται!"

Συνιστάται: