Γιατί το νέο λογισμικό δημιουργίας προφίλ εγείρει ανησυχίες για το απόρρητο

Πίνακας περιεχομένων:

Γιατί το νέο λογισμικό δημιουργίας προφίλ εγείρει ανησυχίες για το απόρρητο
Γιατί το νέο λογισμικό δημιουργίας προφίλ εγείρει ανησυχίες για το απόρρητο
Anonim

Βασικά Takeaways

  • Λογισμικό που χρησιμοποιεί τεχνητή νοημοσύνη για το προφίλ των ανθρώπων εγείρει ανησυχίες σχετικά με το απόρρητο.
  • Cryfe συνδυάζει τεχνικές ανάλυσης συμπεριφοράς με τεχνητή νοημοσύνη.
  • Η κινεζική εταιρεία Alibaba αντιμετώπισε πρόσφατα κριτική αφού φέρεται να είπε ότι το λογισμικό της θα μπορούσε να εντοπίσει Ουιγούρους και άλλες εθνοτικές μειονότητες.
Image
Image

Νέο λογισμικό που υποστηρίζεται από τεχνητή νοημοσύνη που προορίζεται για τους εργοδότες να παρουσιάζουν το προφίλ των εργαζομένων τους εγείρει ανησυχίες για το απόρρητο.

Μία νέα πλατφόρμα λογισμικού, που ονομάζεται Cryfe, συνδυάζει τεχνικές ανάλυσης συμπεριφοράς με τεχνητή νοημοσύνη. Ο προγραμματιστής ισχυρίζεται ότι αναλύοντας ελάχιστες ενδείξεις, το λογισμικό μπορεί να αποκαλύψει τις προθέσεις των ανθρώπων κατά τη διάρκεια συνεντεύξεων. Ωστόσο, ορισμένοι παρατηρητές λένε ότι το Cryfe και άλλοι τύποι λογισμικού που αναλύουν τη συμπεριφορά μπορούν να παραβιάσουν το απόρρητο.

"Οι εταιρείες βασίζονται όλο και περισσότερο στην τεχνητή νοημοσύνη για τη δημιουργία προφίλ", δήλωσε ο ειδικός της τεχνητής νοημοσύνης Vaclav Vincale σε μια συνέντευξη μέσω email. "Αλλά ακόμη και οι άνθρωποι που κωδικοποιούν αυτούς τους αλγόριθμους, πολύ περισσότερο ένα άτομο υποστήριξης πελατών που επικοινωνείτε τηλεφωνικά, δεν μπορούσαν να σας πουν γιατί κάνουν κάποια δεδομένη σύσταση."

Περισσότερα από Λέξεις

Το Cryfe αναπτύχθηκε από μια ελβετική εταιρεία της οποίας οι υπάλληλοι εκπαιδεύτηκαν από το FBI στις τεχνικές δημιουργίας προφίλ. «Ο Cryfe, σε κάθε διαπροσωπική επικοινωνία, δεν ακούει μόνο λέξεις, αλλά εντοπίζει άλλα σήματα που εκπέμπονται από τον άνθρωπο, όπως συναισθήματα, μικροεκφράσεις και όλες τις χειρονομίες», είπε η Caroline Matteucci, η ιδρύτρια της Cryfe, σε μια συνέντευξη μέσω email.

"Κατά τη διάρκεια της πρόσληψης, για παράδειγμα, αυτό μας επιτρέπει να πάμε και να αναζητήσουμε την πραγματική προσωπικότητα του συνομιλητή μας."

Ο Matteucci είπε ότι το απόρρητο των χρηστών προστατεύεται επειδή η εταιρεία είναι διαφανής σχετικά με τον τρόπο λειτουργίας του λογισμικού της. "Ο χρήστης, προτού μπορέσει να χρησιμοποιήσει την πλατφόρμα, πρέπει να αποδεχτεί τους γενικούς όρους", είπε.

"Εκεί διευκρινίζεται ότι ο χρήστης δεν μπορεί σε καμία περίπτωση να υποβάλει συνέντευξη για ανάλυση χωρίς να έχει λάβει τη γραπτή συγκατάθεση του συνομιλητή."

Το Cryfe δεν είναι το μόνο λογισμικό με τεχνητή νοημοσύνη που υποτίθεται ότι αναλύει την ανθρώπινη συμπεριφορά. Υπάρχει επίσης η Humantic, η οποία ισχυρίζεται ότι αναλύει τη συμπεριφορά των καταναλωτών. "Η πρωτοποριακή τεχνολογία της Humantic προβλέπει τη συμπεριφορά του καθενός χωρίς να χρειάζεται ποτέ να κάνει τεστ προσωπικότητας", σύμφωνα με τον ιστότοπο της εταιρείας.

Image
Image

Η εταιρεία ισχυρίζεται ότι χρησιμοποιεί τεχνητή νοημοσύνη για τη δημιουργία ψυχολογικών προφίλ των αιτούντων με βάση τις λέξεις που χρησιμοποιούν στα βιογραφικά, τις συνοδευτικές επιστολές, τα προφίλ LinkedIn και οποιοδήποτε άλλο κείμενο που υποβάλλουν.

Το λογισμικό συμπεριφοράς έχει αντιμετωπίσει νομικές προκλήσεις στο παρελθόν. Το 2019, ο νόμος του Bloomberg ανέφερε ότι η Επιτροπή Ίσων Ευκαιριών Απασχόλησης (EEOC) εξέτασε περιπτώσεις εικαζόμενων παράνομων διακρίσεων λόγω αποφάσεων που σχετίζονται με τον αλγόριθμο.

"Όλα αυτά θα πρέπει να επιλυθούν γιατί το μέλλον της στρατολόγησης είναι η τεχνητή νοημοσύνη", είπε ο δικηγόρος Bradford Newman στο Bloomberg.

Μερικοί παρατηρητές διαφωνούν με εταιρείες που χρησιμοποιούν λογισμικό παρακολούθησης συμπεριφοράς επειδή δεν είναι αρκετά ακριβές. Σε μια συνέντευξη, ο Nigel Duffy, παγκόσμιος ηγέτης τεχνητής νοημοσύνης στην εταιρεία επαγγελματικών υπηρεσιών EY, είπε στο InformationWeek ότι τον προβληματίζει το λογισμικό που χρησιμοποιεί κουίζ μέσων κοινωνικής δικτύωσης και επηρεάζει την ανίχνευση.

"Πιστεύω ότι υπάρχει κάποια πραγματικά συναρπαστική βιβλιογραφία σχετικά με τη δυνατότητα ανίχνευσης συναισθημάτων, αλλά καταλαβαίνω ότι ο τρόπος που εφαρμόζεται συχνά είναι μάλλον αφελής", είπε.

"Οι άνθρωποι εξάγουν συμπεράσματα ότι η επιστήμη δεν υποστηρίζει πραγματικά [όπως] να αποφασίζεις ότι κάποιος είναι δυνητικά καλός υπάλληλος επειδή χαμογελάει πολύ ή αποφασίζει ότι σε κάποιον αρέσουν τα προϊόντα σου επειδή χαμογελούν πολύ"

Κινεζικές εταιρείες φέρεται να έχουν προφίλ μειονοτήτων

Η παρακολούθηση της συμπεριφοράς θα μπορούσε επίσης να έχει πιο απαίσιους σκοπούς, λένε ορισμένες ομάδες ανθρωπίνων δικαιωμάτων. Στην Κίνα, ο γίγαντας της διαδικτυακής αγοράς Alibaba προκάλεσε πρόσφατα σάλο αφού φέρεται να ισχυρίστηκε ότι το λογισμικό του μπορούσε να εντοπίσει Ουιγούρους και άλλες εθνοτικές μειονότητες.

Οι New York Times ανέφεραν ότι η επιχείρηση cloud computing της εταιρείας διέθετε λογισμικό που σάρωνε εικόνες και βίντεο.

Αλλά ακόμη και οι άνθρωποι που κωδικοποιούν αυτούς τους αλγόριθμους…δεν μπορούσαν να σας πουν γιατί κάνουν κάποια δεδομένη σύσταση.

Η Washington Post ανέφερε επίσης πρόσφατα ότι η Huawei, μια άλλη κινεζική εταιρεία τεχνολογίας, είχε δοκιμάσει λογισμικό που θα μπορούσε να ειδοποιήσει τις αρχές επιβολής του νόμου όταν οι κάμερες παρακολούθησης εντόπιζαν πρόσωπα Ουιγούρων.

Μια αίτηση για δίπλωμα ευρεσιτεχνίας του 2018 από την Huawei φέρεται να ισχυρίστηκε ότι «η αναγνώριση των χαρακτηριστικών των πεζών είναι πολύ σημαντική» στην τεχνολογία αναγνώρισης προσώπου."Τα χαρακτηριστικά του αντικειμένου στόχου μπορεί να είναι το φύλο (αρσενικό, θηλυκό), η ηλικία (όπως έφηβοι, μεσήλικες, ηλικιωμένοι) [ή] η φυλή (Χαν, Ουιγούρος), " ανέφερε η εφαρμογή.

Ένας εκπρόσωπος της Huawei είπε στο CNN Business ότι η δυνατότητα αναγνώρισης εθνότητας δεν θα έπρεπε "ποτέ να έχει γίνει μέρος της εφαρμογής".

Η αυξανόμενη χρήση της τεχνητής νοημοσύνης για την ταξινόμηση τεράστιων ποσοτήτων δεδομένων είναι βέβαιο ότι θα εγείρει ανησυχίες για το απόρρητο. Ίσως να μην μάθετε ποτέ ποιος ή τι σας αναλύει την επόμενη φορά που θα πάτε για μια συνέντευξη για δουλειά.

Συνιστάται: