Το AI θα μπορούσε να σταματήσει την κατασκοπεία προβλέποντας τι θα πείτε

Πίνακας περιεχομένων:

Το AI θα μπορούσε να σταματήσει την κατασκοπεία προβλέποντας τι θα πείτε
Το AI θα μπορούσε να σταματήσει την κατασκοπεία προβλέποντας τι θα πείτε
Anonim

Βασικά Takeaways

  • Ερευνητές έχουν επινοήσει μια μέθοδο για να ανακατεύουμε συνομιλίες για να νικήσουμε τα αδίστακτα μικρόφωνα από το να καταγράφουν τις συνομιλίες μας.
  • Η μέθοδος είναι σημαντική καθώς λειτουργεί σε πραγματικό χρόνο σε ροή ήχου και με ελάχιστη εκπαίδευση.
  • Οι ειδικοί επικροτούν την έρευνα, αλλά πιστεύουν ότι δεν είναι πολύ χρήσιμη για τον μέσο χρήστη smartphone.
Image
Image

Είμαστε περικυκλωμένοι από έξυπνες συσκευές με μικρόφωνα, αλλά τι γίνεται αν έχουν παραβιαστεί για να μας κρυφακούσουν;

Σε μια προσπάθεια να προστατεύσουν τις συνομιλίες μας από τους κατασκοπευτές, οι ερευνητές του Πανεπιστημίου Κολούμπια ανέπτυξαν μια μέθοδο καμουφλάζ νευρικής φωνής που διακόπτει τα συστήματα αυτόματης αναγνώρισης ομιλίας σε πραγματικό χρόνο χωρίς να ενοχλεί τους ανθρώπους.

"Με την εισβολή [έξυπνων συσκευών που ενεργοποιούνται με φωνή] στη ζωή μας, η ιδέα του απορρήτου αρχίζει να εξατμίζεται καθώς αυτές οι συσκευές ακρόασης είναι πάντα ενεργοποιημένες και παρακολουθούν όσα λέγονται", Charles Everette, Διευθυντής Cyber Advocacy, Το Deep Instinct, είπε στο Lifewire μέσω email. "Αυτή η έρευνα είναι μια άμεση απάντηση στην ανάγκη απόκρυψης ή καμουφλαρίσματος της φωνής και των συνομιλιών ενός ατόμου από αυτούς τους ηλεκτρονικούς κρυφακούς, γνωστούς ή άγνωστους σε μια περιοχή."

Talking Over

Οι ερευνητές ανέπτυξαν ένα σύστημα που παράγει ήσυχους ήχους που μπορείτε να αναπαράγετε σε οποιοδήποτε δωμάτιο για να εμποδίσετε τα αδίστακτα μικρόφωνα να κατασκοπεύουν τις συνομιλίες σας.

Ο τρόπος με τον οποίο αυτός ο τύπος τεχνολογίας καταπολεμά τις υποκλοπές θυμίζει την Everette ακουστικά ακύρωσης θορύβου. Αντί να παράγουν ήσυχους ήχους ψίθυρου για να ακυρώσουν τον θόρυβο του παρασκηνίου, οι ερευνητές μεταδίδουν ήχους παρασκηνίου που διακόπτουν τους αλγόριθμους Τεχνητής Νοημοσύνης (AI) που ερμηνεύουν τα ηχητικά κύματα σε κατανοητό ήχο.

Τέτοιοι μηχανισμοί για το καμουφλάζ της φωνής ενός ατόμου δεν είναι μοναδικοί, αλλά αυτό που ξεχωρίζει το Neural Voice Camouflage από τις άλλες μεθόδους είναι ότι λειτουργεί σε πραγματικό χρόνο σε ροή ήχου.

"Για να χειριστούμε τη ζωντανή ομιλία, η προσέγγισή μας πρέπει να προβλέψει [τον σωστό ήχο κρυπτογράφησης] στο μέλλον, έτσι ώστε να μπορούν να παίζονται σε πραγματικό χρόνο", σημειώνουν οι ερευνητές στην εργασία τους. Επί του παρόντος, η μέθοδος λειτουργεί για την πλειοψηφία της αγγλικής γλώσσας.

Ο Hans Hansen, Διευθύνων Σύμβουλος της Brand3D, είπε στο Lifewire ότι η έρευνα είναι πολύ σημαντική, καθώς επιτίθεται σε μια σημαντική αδυναμία στα σημερινά συστήματα AI.

Σε μια συνομιλία μέσω email, ο Hansen εξήγησε ότι τα τρέχοντα συστήματα τεχνητής νοημοσύνης βαθιάς εκμάθησης γενικά και η φυσική αναγνώριση ομιλίας ειδικότερα λειτουργούν μετά την επεξεργασία εκατομμυρίων εγγραφών δεδομένων ομιλίας που συλλέγονται από χιλιάδες ομιλητές. Αντίθετα, το Neural Voice Camouflage λειτουργεί αφού ρυθμιστεί μόνο σε δύο δευτερόλεπτα εισόδου ομιλίας.

Προσωπικά, αν ανησυχώ για συσκευές που ακούν, η λύση μου δεν θα ήταν να προσθέσω άλλη συσκευή ακρόασης που επιδιώκει να δημιουργήσει θόρυβο φόντου.

Λάθος δέντρο;

Ο Brian Chappell, επικεφαλής στρατηγικής ασφαλείας στο BeyondTrust, πιστεύει ότι η έρευνα είναι πιο ωφέλιμη για τους επιχειρηματικούς χρήστες που φοβούνται ότι θα μπορούσαν να βρεθούν ανάμεσα σε παραβιασμένες συσκευές που ακούν λέξεις-κλειδιά που υποδεικνύουν ότι εκφωνούνται πολύτιμες πληροφορίες.

"Εκεί που αυτή η τεχνολογία θα ήταν δυνητικά πιο ενδιαφέρουσα είναι σε μια πιο αυταρχική κατάσταση επιτήρησης όπου η ανάλυση βίντεο και φωνητικής εκτύπωσης με τεχνητή νοημοσύνη χρησιμοποιείται εναντίον πολιτών", δήλωσε στο Lifewire μέσω email ο James Maude, επικεφαλής ερευνητής ασφάλειας στον κυβερνοχώρο της BeyondTrust.

Ο Ο Maude πρότεινε ότι μια καλύτερη εναλλακτική θα ήταν η εφαρμογή ελέγχων απορρήτου σχετικά με τον τρόπο με τον οποίο συλλέγονται, αποθηκεύονται και χρησιμοποιούνται τα δεδομένα από αυτές τις συσκευές. Επιπλέον, ο Chappell πιστεύει ότι η χρησιμότητα της μεθόδου του ερευνητή είναι περιορισμένη, καθώς δεν έχει σχεδιαστεί για να σταματήσει την ανθρώπινη υποκλοπή.

"Για το σπίτι, να έχετε κατά νου ότι, τουλάχιστον θεωρητικά, η χρήση ενός τέτοιου εργαλείου θα έχει ως αποτέλεσμα το Siri, το Alexa, το Google Home και οποιοδήποτε άλλο σύστημα που ενεργοποιείται με μια προφορική λέξη ενεργοποίησης να σας αγνοήσει", είπε Chappell.

Image
Image

Αλλά οι ειδικοί πιστεύουν ότι με την αυξανόμενη συμπερίληψη της τεχνολογίας AI/ML στις έξυπνες συσκευές μας, είναι απολύτως πιθανό αυτή η τεχνολογία να καταλήξει στα τηλέφωνά μας στο εγγύς μέλλον.

Το Η Maude ανησυχεί, καθώς οι τεχνολογίες τεχνητής νοημοσύνης μπορούν να μάθουν γρήγορα να διακρίνουν μεταξύ θορύβου και πραγματικού ήχου. Πιστεύει ότι ενώ το σύστημα μπορεί να ήταν αρχικά επιτυχημένο, θα μπορούσε γρήγορα να μετατραπεί σε παιχνίδι γάτας και ποντικιού καθώς μια συσκευή ακρόασης μαθαίνει να φιλτράρει τους θορύβους εμπλοκής.

Πιο ανησυχητικό, η Maude επεσήμανε ότι οποιοσδήποτε το χρησιμοποιεί θα μπορούσε, στην πραγματικότητα, να τραβήξει την προσοχή στον εαυτό του, καθώς η διακοπή της αναγνώρισης φωνής θα φαινόταν ασυνήθιστη και μπορεί να υποδηλώνει ότι προσπαθείτε να κρύψετε κάτι.

"Προσωπικά, αν ανησυχώ για συσκευές που ακούν, η λύση μου δεν θα ήταν να προσθέσω άλλη συσκευή ακρόασης που επιδιώκει να δημιουργήσει θόρυβο φόντου", μοιράστηκε η Maude. "Ειδικά επειδή απλώς αυξάνει τον κίνδυνο να χακαριστεί μια συσκευή ή μια εφαρμογή και να μπορέσει να με ακούσει."

Συνιστάται: