Βασικά Takeaways
- Ένα νέο εργαλείο λογισμικού επιτρέπει στην τεχνητή νοημοσύνη να παρακολουθεί σχόλια στο διαδίκτυο για ρητορική μίσους.
- Απαιτείται Η τεχνητή νοημοσύνη για τον έλεγχο του περιεχομένου του Διαδικτύου λόγω του τεράστιου όγκου υλικού που ξεπερνά τις ανθρώπινες δυνατότητες.
- Αλλά ορισμένοι ειδικοί λένε ότι η παρακολούθηση της ομιλίας με τεχνητή νοημοσύνη εγείρει ανησυχίες για το απόρρητο.
Καθώς αυξάνεται η ρητορική μίσους στο διαδίκτυο, μια εταιρεία λέει ότι μπορεί να έχει μια λύση που δεν βασίζεται σε ανθρώπινους συντονιστές.
Μια startup που ονομάζεται Spectrum Labs παρέχει τεχνολογία τεχνητής νοημοσύνης σε παρόχους πλατφορμών για τον εντοπισμό και τον τερματισμό των τοξικών ανταλλαγών σε πραγματικό χρόνο. Ωστόσο, οι ειδικοί λένε ότι η παρακολούθηση της τεχνητής νοημοσύνης εγείρει επίσης ζητήματα απορρήτου.
"Η παρακολούθηση της τεχνητής νοημοσύνης απαιτεί συχνά την εξέταση προτύπων με την πάροδο του χρόνου, κάτι που απαιτεί τη διατήρηση των δεδομένων", δήλωσε στο Lifewire ο David Moody, ανώτερος συνεργάτης στη Schellman, μια εταιρεία αξιολόγησης συμμόρφωσης με την ασφάλεια και το απόρρητο. "Αυτά τα δεδομένα ενδέχεται να περιλαμβάνουν δεδομένα που οι νόμοι έχουν επισημάνει ως δεδομένα απορρήτου (στοιχεία προσωπικής ταυτοποίησης ή PII)."
Περισσότερη ρητορική μίσους
Η Spectrum Labs υπόσχεται μια λύση υψηλής τεχνολογίας στο πανάρχαιο πρόβλημα της ρητορικής μίσους.
"Κατά μέσο όρο, βοηθάμε τις πλατφόρμες να μειώσουν τις προσπάθειες μετριασμού περιεχομένου κατά 50% και να αυξήσουν τον εντοπισμό τοξικών συμπεριφορών κατά 10 φορές", υποστηρίζει η εταιρεία στον ιστότοπό της.
Η Spectrum λέει ότι συνεργάστηκε με ερευνητικά ινστιτούτα με εξειδίκευση σε συγκεκριμένες επιβλαβείς συμπεριφορές για να δημιουργήσει περισσότερα από 40 μοντέλα αναγνώρισης συμπεριφοράς. Η πλατφόρμα εποπτείας περιεχομένου Guardian της εταιρείας δημιουργήθηκε από μια ομάδα επιστημόνων δεδομένων και συντονιστών για να «υποστηρίξει την προστασία των κοινοτήτων από την τοξικότητα."
Υπάρχει μια αυξανόμενη ανάγκη για τρόπους καταπολέμησης της ρητορικής μίσους, καθώς είναι αδύνατο για έναν άνθρωπο να παρακολουθεί κάθε κομμάτι της διαδικτυακής κίνησης, ο Dylan Fox, Διευθύνων Σύμβουλος της AssemblyAI, μιας startup που παρέχει αναγνώριση ομιλίας και έχει πελάτες που εμπλέκονται στην παρακολούθηση μίσους ομιλία, είπε στο Lifewire σε μια συνέντευξη μέσω email.
"Υπάρχουν περίπου 500 εκατομμύρια tweets την ημέρα μόνο στο Twitter", πρόσθεσε. "Ακόμα κι αν ένα άτομο μπορούσε να ελέγχει ένα tweet κάθε 10 δευτερόλεπτα, το twitter θα έπρεπε να απασχολήσει 60 χιλιάδες άτομα για να το κάνει αυτό. Αντ' αυτού, χρησιμοποιούμε έξυπνα εργαλεία όπως η τεχνητή νοημοσύνη για να αυτοματοποιήσουμε τη διαδικασία."
Σε αντίθεση με τον άνθρωπο, η τεχνητή νοημοσύνη μπορεί να λειτουργεί 24 ώρες το 24ωρο, 7 ημέρες την εβδομάδα και ενδεχομένως να είναι πιο δίκαιη, επειδή έχει σχεδιαστεί για να εφαρμόζει ομοιόμορφα τους κανόνες της σε όλους τους χρήστες χωρίς να παρεμβαίνουν προσωπικές πεποιθήσεις, είπε η Fox. Υπάρχει επίσης ένα κόστος για τα άτομα που πρέπει να παρακολουθούν και να εποπτεύουν περιεχόμενο.
"Μπορεί να εκτεθούν σε βία, μίσος και άθλιες πράξεις, που μπορεί να βλάψουν την ψυχική υγεία ενός ατόμου", είπε.
Η Spectrum δεν είναι η μόνη εταιρεία που επιδιώκει να ανιχνεύσει αυτόματα τη ρητορική μίσους στο διαδίκτυο. Για παράδειγμα, το Κέντρο Μαλαισίας κυκλοφόρησε πρόσφατα έναν διαδικτυακό ιχνηλάτη που έχει σχεδιαστεί για την εύρεση ρητορικής μίσους μεταξύ των Μαλαισιανών χρηστών του Διαδικτύου. Το λογισμικό που ανέπτυξαν - ονόμασαν Tracker Benci - χρησιμοποιεί μηχανική εκμάθηση για να ανιχνεύει ρητορική μίσους στο διαδίκτυο, ιδιαίτερα στο Twitter.
Η πρόκληση είναι πώς να δημιουργήσετε χώρους στους οποίους οι άνθρωποι μπορούν πραγματικά να εμπλακούν μεταξύ τους εποικοδομητικά.
Ανησυχίες απορρήτου
Ενώ τεχνολογικές λύσεις όπως το Spectrum μπορεί να καταπολεμήσουν τη ρητορική μίσους στο διαδίκτυο, εγείρουν επίσης ερωτήματα σχετικά με το πόσο θα πρέπει να κάνουν οι υπολογιστές αστυνόμευσης.
Υπάρχουν συνέπειες για την ελευθερία του λόγου, αλλά όχι μόνο για τους ομιλητές των οποίων οι αναρτήσεις θα καταργηθούν ως ρητορική μίσους, είπε η Irina Raicu, διευθύντρια διαδικτυακής ηθικής στο Markkula Center for Applied Ethics στο Πανεπιστήμιο Santa Clara, στο Lifewire σε ένα email. συνέντευξη.
"Το να επιτρέπεται η παρενόχληση στο όνομα της "ελευθερίας του λόγου" έχει οδηγήσει τους στόχους αυτής της ομιλίας (ειδικά όταν απευθύνεται σε συγκεκριμένα άτομα) να σταματήσουν να μιλούν - να εγκαταλείψουν εντελώς διάφορες συνομιλίες και πλατφόρμες", είπε ο Raicu."Η πρόκληση είναι πώς να δημιουργήσουμε χώρους στους οποίους οι άνθρωποι μπορούν πραγματικά να εμπλακούν μεταξύ τους εποικοδομητικά."
Η παρακολούθηση ομιλίας AI δεν θα πρέπει να εγείρει ζητήματα απορρήτου εάν οι εταιρείες χρησιμοποιούν δημόσια διαθέσιμες πληροφορίες κατά την παρακολούθηση, είπε η Fox. Ωστόσο, εάν η εταιρεία αγοράσει λεπτομέρειες σχετικά με τον τρόπο με τον οποίο οι χρήστες αλληλεπιδρούν σε άλλες πλατφόρμες για να προπροσδιορίσει προβληματικούς χρήστες, αυτό θα μπορούσε να εγείρει ανησυχίες σχετικά με το απόρρητο.
"Μπορεί σίγουρα να είναι λίγο γκρίζα περιοχή, ανάλογα με την εφαρμογή", πρόσθεσε.
Ο Justin Davis, Διευθύνων Σύμβουλος της Spectrum Labs είπε στο Lifewire σε ένα email ότι η τεχνολογία της εταιρείας μπορεί να ελέγξει 2 έως 5 χιλιάδες σειρές δεδομένων μέσα σε κλάσματα του δευτερολέπτου. «Το πιο σημαντικό, η τεχνολογία μπορεί να μειώσει την ποσότητα του τοξικού περιεχομένου στο οποίο εκτίθενται οι συντονιστές», είπε.
Μπορεί να βρισκόμαστε στο κατώφλι μιας επανάστασης στην παρακολούθηση της ανθρώπινης ομιλίας και κειμένου στο Διαδίκτυο με τεχνητή νοημοσύνη. Οι μελλοντικές εξελίξεις περιλαμβάνουν καλύτερες δυνατότητες ανεξάρτητης και αυτόνομης παρακολούθησης για τον εντοπισμό προηγουμένως άγνωστων μορφών ρητορικής μίσους ή οποιωνδήποτε άλλων λογοκρίσιμων μοτίβων που θα εξελιχθούν, είπε ο Moody.
Το Η AI θα μπορεί επίσης σύντομα να αναγνωρίζει μοτίβα στα συγκεκριμένα μοτίβα ομιλίας και να συσχετίζει τις πηγές και τις άλλες δραστηριότητές τους μέσω ανάλυσης ειδήσεων, δημόσιων αρχειοθετήσεων, ανάλυσης προτύπων κυκλοφορίας, φυσικής παρακολούθησης και πολλών άλλων επιλογών, πρόσθεσε.
Αλλά ορισμένοι ειδικοί λένε ότι οι άνθρωποι θα πρέπει πάντα να εργάζονται με υπολογιστές για να παρακολουθούν τη ρητορική μίσους.
"Το AI μόνο δεν θα λειτουργήσει", είπε ο Raicu. "Πρέπει να αναγνωριστεί ως ένα ατελές εργαλείο που πρέπει να χρησιμοποιηθεί σε συνδυασμό με άλλες απαντήσεις."
Διόρθωση 1/25/2022: Προστέθηκε απόσπασμα από τον Justin Davis στην 5η παράγραφο από το τέλος για να αντικατοπτρίζει ένα μήνυμα ηλεκτρονικού ταχυδρομείου μετά τη δημοσίευση.