Γιατί το λογισμικό ανάγνωσης συναισθημάτων θα μπορούσε να παραβιάζει το απόρρητό σας

Πίνακας περιεχομένων:

Γιατί το λογισμικό ανάγνωσης συναισθημάτων θα μπορούσε να παραβιάζει το απόρρητό σας
Γιατί το λογισμικό ανάγνωσης συναισθημάτων θα μπορούσε να παραβιάζει το απόρρητό σας
Anonim

Βασικά Takeaways

  • Το Zoom φέρεται να είπε ότι θα χρησιμοποιούσε τεχνητή νοημοσύνη για να αξιολογήσει το συναίσθημα ή το επίπεδο αφοσίωσης ενός χρήστη.
  • Ομάδες ανθρωπίνων δικαιωμάτων ζητούν από το Zoom να επανεξετάσει το σχέδιό του λόγω ανησυχιών για το απόρρητο και την ασφάλεια των δεδομένων.
  • Ορισμένες εταιρείες χρησιμοποιούν επίσης λογισμικό ανίχνευσης συναισθημάτων κατά τη διάρκεια συνεντεύξεων για να αξιολογήσουν εάν ο χρήστης προσέχει.
Image
Image

Η αυξανόμενη χρήση της τεχνητής νοημοσύνης (AI) για την παρακολούθηση των ανθρώπινων συναισθημάτων προκαλεί ανησυχίες για το απόρρητο.

Οι οργανώσεις ανθρωπίνων δικαιωμάτων ζητούν από τη Zoom να επιβραδύνει το σχέδιό της να εισαγάγει την τεχνητή νοημοσύνη ανάλυσης συναισθημάτων στο λογισμικό τηλεδιάσκεψης. Η εταιρεία φέρεται να έχει πει ότι θα χρησιμοποιήσει AI για να αξιολογήσει το συναίσθημα ή το επίπεδο αφοσίωσης ενός χρήστη.

"Οι ειδικοί παραδέχονται ότι η ανάλυση συναισθημάτων δεν λειτουργεί", έγραψε η κοινοπραξία ομάδων ανθρωπίνων δικαιωμάτων, συμπεριλαμβανομένης της ACLU, σε επιστολή προς το Zoom. "Οι εκφράσεις του προσώπου συχνά αποσυνδέονται από τα συναισθήματα από κάτω και η έρευνα έχει βρει ότι ούτε οι άνθρωποι μπορούν να διαβάσουν ή να μετρήσουν με ακρίβεια τα συναισθήματα των άλλων μερικές φορές. Η ανάπτυξη αυτού του εργαλείου προσθέτει αξιοπιστία στην ψευδοεπιστήμη και θέτει σε κίνδυνο τη φήμη σας."

Το Zoom δεν απάντησε αμέσως σε αίτημα του Lifewire για σχολιασμό.

Παρατηρώντας τα συναισθήματά σας

Σύμφωνα με το άρθρο του Πρωτοκόλλου, το σύστημα παρακολούθησης Zoom που ονομάζεται Q for Sales θα έλεγχε την αναλογία χρόνου ομιλίας των χρηστών, την καθυστέρηση χρόνου απόκρισης και τις συχνές αλλαγές των ηχείων για να παρακολουθεί πόσο αφοσιωμένο είναι το άτομο. Το Zoom θα χρησιμοποιούσε αυτά τα δεδομένα για να εκχωρήσει βαθμολογίες μεταξύ μηδέν και 100, με υψηλότερες βαθμολογίες που υποδεικνύουν υψηλότερη αφοσίωση ή συναίσθημα.

Οι ομάδες ανθρωπίνων δικαιωμάτων ισχυρίζονται ότι το λογισμικό θα μπορούσε να κάνει διακρίσεις σε βάρος ατόμων με αναπηρία ή ορισμένων εθνοτήτων, υποθέτοντας ότι όλοι χρησιμοποιούν τις ίδιες εκφράσεις προσώπου, μοτίβα φωνής και γλώσσα του σώματος για να επικοινωνήσουν. Οι ομάδες προτείνουν επίσης ότι το λογισμικό θα μπορούσε να αποτελεί κίνδυνο για την ασφάλεια των δεδομένων.

Image
Image

"Η συλλογή προσωπικών δεδομένων θα μπορούσε να καταστήσει κάθε οντότητα που αναπτύσσει αυτήν την τεχνολογία στόχο για κατασκοπεία κυβερνητικών αρχών και κακόβουλων χάκερ", σύμφωνα με την επιστολή.

Η Τζούλια Στογιάνοβιτς, καθηγήτρια επιστήμης υπολογιστών και μηχανικής στο Πανεπιστήμιο της Νέας Υόρκης, είπε στο Lifewire σε μια συνέντευξη μέσω email ότι είναι δύσπιστη σχετικά με τους ισχυρισμούς πίσω από την ανίχνευση συναισθημάτων.

"Δεν βλέπω πώς μια τέτοια τεχνολογία μπορεί να λειτουργήσει - η συναισθηματική έκφραση των ανθρώπων είναι πολύ ατομική, πολύ πολιτισμικά εξαρτώμενη και πολύ συγκεκριμένη για το πλαίσιο", είπε ο Stoyanovich."Αλλά, ίσως ακόμη πιο σημαντικό, δεν καταλαβαίνω γιατί θα θέλαμε να λειτουργήσουν αυτά τα εργαλεία. Με άλλα λόγια, θα ήμασταν σε ακόμη μεγαλύτερο πρόβλημα εάν λειτουργούσαν καλά. Αλλά ίσως ακόμη και πριν σκεφτούμε τους κινδύνους, θα έπρεπε ρωτήστε-ποια είναι τα πιθανά οφέλη μιας τέτοιας τεχνολογίας;"

Η Zoom δεν είναι η μόνη εταιρεία που χρησιμοποιεί λογισμικό ανίχνευσης συναισθημάτων. Ο Theo Wills, ο ανώτερος διευθυντής απορρήτου στην Kuma LLC, μια συμβουλευτική εταιρεία απορρήτου και ασφάλειας, είπε στο Lifewire μέσω email ότι το λογισμικό για την ανίχνευση συναισθημάτων χρησιμοποιείται κατά τη διάρκεια συνεντεύξεων για να αξιολογηθεί εάν ο χρήστης δίνει προσοχή. Επίσης, εφαρμόζεται πιλοτικά στον κλάδο των μεταφορών για να παρακολουθεί εάν οι οδηγοί φαίνονται νυσταγμένοι, σε πλατφόρμες βίντεο για να μετρήσουν το ενδιαφέρον και να προσαρμόσουν συστάσεις και σε εκπαιδευτικά σεμινάρια για να καθορίσουν εάν μια συγκεκριμένη μέθοδος διδασκαλίας είναι ενδιαφέρουσα.

Ο Ο Γουίλς υποστήριξε ότι η διαμάχη γύρω από το λογισμικό παρακολούθησης συναισθημάτων είναι περισσότερο ζήτημα ηθικής δεδομένων παρά απορρήτου. Είπε ότι πρόκειται για το σύστημα που λαμβάνει αποφάσεις στον πραγματικό κόσμο με βάση τις προαισθήσεις.

"Με αυτήν την τεχνολογία, υποθέτετε τώρα τον λόγο που έχω μια συγκεκριμένη έκφραση στο πρόσωπό μου, αλλά η ώθηση πίσω από μια έκφραση ποικίλλει ευρέως λόγω πράξεων όπως η κοινωνική ή πολιτιστική ανατροφή, οι οικογενειακές συμπεριφορές, οι προηγούμενες εμπειρίες ή η νευρικότητα αυτή τη στιγμή», πρόσθεσε ο Γουίλς. "Η βάση του αλγόριθμου σε μια υπόθεση είναι εγγενώς εσφαλμένη και δυνητικά μεροληπτική. Πολλοί πληθυσμοί δεν αντιπροσωπεύονται στον πληθυσμό στον οποίο βασίζονται οι αλγόριθμοι και πρέπει να δοθεί προτεραιότητα στην κατάλληλη αναπαράσταση πριν χρησιμοποιηθεί."

Πρακτικές εκτιμήσεις

Τα προβλήματα που εγείρονται από το λογισμικό παρακολούθησης συναισθημάτων μπορεί να είναι πρακτικά όσο και θεωρητικά. Ο Matt Heisie, ο συνιδρυτής του Ferret.ai, μιας εφαρμογής που βασίζεται σε τεχνητή νοημοσύνη και παρέχει ευφυΐα σχέσεων, είπε στο Lifewire σε ένα email ότι οι χρήστες πρέπει να ρωτήσουν πού γίνεται η ανάλυση των προσώπων και ποια δεδομένα αποθηκεύονται. Γίνεται η μελέτη σε εγγραφές κλήσεων, επεξεργασία στο cloud ή στην τοπική συσκευή;

Επίσης, ο Heisie ρώτησε, καθώς μαθαίνει ο αλγόριθμος, ποια δεδομένα συλλέγει σχετικά με το πρόσωπο ή τις κινήσεις ενός ατόμου που θα μπορούσαν ενδεχομένως να αποσυνδεθούν από τον αλγόριθμο και να χρησιμοποιηθούν για την αναδημιουργία των βιομετρικών στοιχείων κάποιου; Αποθηκεύει η εταιρεία στιγμιότυπα για να επαληθεύσει ή να επικυρώσει τις γνώσεις του αλγόριθμου και ειδοποιείται ο χρήστης για αυτά τα νέα παράγωγα δεδομένα ή αποθηκευμένες εικόνες που πιθανώς συλλέγονται από τις κλήσεις του;

"Αυτά είναι όλα προβλήματα που έχουν λύσει πολλές εταιρείες, αλλά υπάρχουν επίσης εταιρείες που ταρακούνησε σκάνδαλο όταν αποδείχθηκε ότι δεν το έκαναν σωστά", είπε ο Heisie. "Το Facebook είναι η πιο σημαντική περίπτωση μιας εταιρείας που απέσυρε την πλατφόρμα αναγνώρισης προσώπου λόγω ανησυχιών σχετικά με το απόρρητο των χρηστών. Η μητρική εταιρεία Meta αφαιρεί τώρα λειτουργίες AR από το Instagram σε ορισμένες δικαιοδοσίες όπως το Ιλινόις και το Τέξας για τους νόμους περί απορρήτου που αφορούν τα βιομετρικά δεδομένα."

Συνιστάται: