Μην εμπιστεύεστε οτιδήποτε βλέπετε στον Ιστό, λένε οι ειδικοί

Πίνακας περιεχομένων:

Μην εμπιστεύεστε οτιδήποτε βλέπετε στον Ιστό, λένε οι ειδικοί
Μην εμπιστεύεστε οτιδήποτε βλέπετε στον Ιστό, λένε οι ειδικοί
Anonim

Βασικά Takeaways

  • Νέα έρευνα αποκαλύπτει ότι οι άνθρωποι δεν μπορούν να διαχωρίσουν τις εικόνες που δημιουργούνται από AI από τις πραγματικές.
  • Οι συμμετέχοντες αξιολόγησαν τις εικόνες που δημιουργήθηκαν από AI ως πιο αξιόπιστες.
  • Οι ειδικοί πιστεύουν ότι οι άνθρωποι πρέπει να σταματήσουν να εμπιστεύονται οτιδήποτε βλέπουν στο διαδίκτυο.
Image
Image

Η παροιμία «βλέποντας είναι να πιστεύεις» δεν είναι πλέον σχετική όσον αφορά το διαδίκτυο και οι ειδικοί λένε ότι δεν πρόκειται να βελτιωθεί σύντομα.

Μια πρόσφατη μελέτη διαπίστωσε ότι οι εικόνες προσώπων που δημιουργήθηκαν από την τεχνητή νοημοσύνη (AI) όχι μόνο ήταν εξαιρετικά φωτορεαλιστικές, αλλά φαινόταν επίσης πιο ενάρετες από τα πραγματικά πρόσωπα.

"Η αξιολόγησή μας για τον φωτορεαλισμό προσώπων που συνθέτουν AI δείχνει ότι οι μηχανές σύνθεσης έχουν περάσει μέσα από την παράξενη κοιλάδα και είναι σε θέση να δημιουργήσουν πρόσωπα που δεν διακρίνονται και είναι πιο αξιόπιστα από τα πραγματικά πρόσωπα", παρατήρησαν οι ερευνητές.

Αυτό το άτομο δεν υπάρχει

Οι ερευνητές, η Δρ. Sophie Nightingale από το Πανεπιστήμιο του Λάνκαστερ και ο καθηγητής Hany Farid από το Πανεπιστήμιο της Καλιφόρνια, στο Μπέρκλεϋ, διεξήγαγαν τα πειράματα αφού αναγνώρισαν τις ευρέως δημοσιευμένες απειλές των deep fakes, που κυμαίνονται από όλα τα είδη διαδικτυακής απάτης έως την αναζωογόνηση καμπάνιες παραπληροφόρησης.

"Ίσως η πιο καταστροφική είναι η συνέπεια ότι, σε έναν ψηφιακό κόσμο στον οποίο οποιαδήποτε εικόνα ή βίντεο μπορεί να παραποιηθεί, η αυθεντικότητα οποιασδήποτε άβολης ή ανεπιθύμητης εγγραφής μπορεί να τεθεί υπό αμφισβήτηση", υποστήριξαν οι ερευνητές.

Υποστήριξαν ότι ενώ έχει σημειωθεί πρόοδος στην ανάπτυξη αυτόματων τεχνικών για τον εντοπισμό ψεύτικο περιεχόμενο, οι τρέχουσες τεχνικές δεν είναι αρκετά αποτελεσματικές και ακριβείς ώστε να συμβαδίζουν με τη συνεχή ροή νέου περιεχομένου που μεταφορτώνεται στο διαδίκτυο. Αυτό σημαίνει ότι εναπόκειται στους καταναλωτές διαδικτυακού περιεχομένου να ξεχωρίσουν το πραγματικό από το ψεύτικο, προτείνει το δίδυμο.

Η Jelle Wieringa, υπέρμαχος της ευαισθητοποίησης για την ασφάλεια στο KnowBe4, συμφώνησε. Είπε στο Lifewire μέσω email ότι η καταπολέμηση των πραγματικών απομιμήσεων είναι εξαιρετικά δύσκολο να γίνει χωρίς εξειδικευμένη τεχνολογία. "[Οι τεχνολογίες μετριασμού] μπορεί να είναι δαπανηρές και δύσκολο να εφαρμοστούν σε διαδικασίες σε πραγματικό χρόνο, συχνά εντοπίζοντας ένα βαθύ ψεύτικο μόνο εκ των υστέρων."

Με αυτήν την υπόθεση, οι ερευνητές πραγματοποίησαν μια σειρά πειραμάτων για να προσδιορίσουν εάν οι ανθρώπινοι συμμετέχοντες μπορούν να διακρίνουν πρόσωπα τελευταίας τεχνολογίας σε σύνθεση από πραγματικά πρόσωπα. Στις δοκιμές τους, διαπίστωσαν ότι παρά την εκπαίδευση για να βοηθήσουν στην αναγνώριση απομιμήσεων, το ποσοστό ακρίβειας βελτιώθηκε μόνο στο 59%, από 48% χωρίς προπόνηση.

Αυτό οδήγησε τους ερευνητές να ελέγξουν εάν οι αντιλήψεις περί αξιοπιστίας θα μπορούσαν να βοηθήσουν τους ανθρώπους να αναγνωρίσουν τεχνητές εικόνες. Σε μια τρίτη μελέτη, ζήτησαν από τους συμμετέχοντες να βαθμολογήσουν την αξιοπιστία των προσώπων, μόνο για να ανακαλύψουν ότι η μέση βαθμολογία για τα συνθετικά πρόσωπα ήταν 7.7% πιο αξιόπιστο από τη μέση βαθμολογία για πραγματικά πρόσωπα. Ο αριθμός μπορεί να μην ακούγεται πολύς, αλλά οι ερευνητές ισχυρίζονται ότι είναι στατιστικά σημαντικός.

Βαθύτερα ψεύτικα

Τα βαθιά ψεύτικα αποτελούσαν ήδη μεγάλη ανησυχία και τώρα τα νερά έχουν θολώσει περαιτέρω από αυτή τη μελέτη, η οποία υποδηλώνει ότι τέτοιες ψεύτικες εικόνες υψηλής ποιότητας θα μπορούσαν να προσθέσουν μια εντελώς νέα διάσταση στις διαδικτυακές απάτες, για παράδειγμα, βοηθώντας στη δημιουργία περισσότερων πειστικά διαδικτυακά ψεύτικα προφίλ.

"Το μόνο πράγμα που οδηγεί την ασφάλεια στον κυβερνοχώρο είναι η εμπιστοσύνη που έχουν οι άνθρωποι στις τεχνολογίες, τις διαδικασίες και τους ανθρώπους που προσπαθούν να τους κρατήσουν ασφαλείς", μοιράστηκε ο Wieringa. "Τα βαθιά ψεύτικα, ειδικά όταν γίνονται φωτορεαλιστικά, υπονομεύουν αυτήν την εμπιστοσύνη και, ως εκ τούτου, την υιοθέτηση και την αποδοχή της ασφάλειας στον κυβερνοχώρο. Μπορεί να οδηγήσει σε δυσπιστία των ανθρώπων για όλα όσα αντιλαμβάνονται."

Image
Image

Ο Chris Hauk, πρωταθλητής απορρήτου καταναλωτών στο Pixel Privacy, συμφώνησε. Σε μια σύντομη ανταλλαγή μηνυμάτων ηλεκτρονικού ταχυδρομείου, είπε στο Lifewire ότι το φωτορεαλιστικό βαθύ ψεύτικο θα μπορούσε να προκαλέσει "χαμό" στο διαδίκτυο, ειδικά αυτές τις μέρες που είναι δυνατή η πρόσβαση σε όλα τα είδη λογαριασμών χρησιμοποιώντας τεχνολογία αναγνώρισης φωτογραφίας.

Διορθωτική ενέργεια

Ευτυχώς, ο Greg Kuhn, Διευθυντής IoT, Prosegur Security, λέει ότι υπάρχουν διαδικασίες που μπορούν να αποφύγουν τέτοιου είδους δόλιο έλεγχο ταυτότητας. Είπε στο Lifewire μέσω email ότι τα συστήματα διαπιστευτηρίων που βασίζονται σε τεχνητή νοημοσύνη ταιριάζουν με ένα επαληθευμένο άτομο με μια λίστα, αλλά πολλά έχουν ενσωματωμένες δικλείδες ασφαλείας για τον έλεγχο της «ζωντανότητας».

"Αυτοί οι τύποι συστημάτων μπορεί να απαιτούν και να καθοδηγούν έναν χρήστη να εκτελέσει ορισμένες εργασίες, όπως χαμόγελο ή περιστροφή του κεφαλιού σας προς τα αριστερά και μετά δεξιά. Αυτά είναι πράγματα που τα στατικά δημιουργημένα πρόσωπα δεν μπορούσαν να εκτελέσουν", μοιράστηκε ο Kuhn.

Οι ερευνητές έχουν προτείνει οδηγίες για τη ρύθμιση της δημιουργίας και της διανομής τους για την προστασία του κοινού από συνθετικές εικόνες. Για αρχή, προτείνουν την ενσωμάτωση βαθιά ριζωμένων υδατογραφημάτων στα ίδια τα δίκτυα σύνθεσης εικόνας και βίντεο για να διασφαλιστεί ότι όλα τα συνθετικά μέσα μπορούν να αναγνωριστούν αξιόπιστα.

Μέχρι τότε, ο Paul Bischoff, υπέρμαχος της ιδιωτικής ζωής και συντάκτης της έρευνας infosec στην Comparitech, λέει ότι οι άνθρωποι είναι μόνοι τους."Οι άνθρωποι θα πρέπει να μάθουν να μην εμπιστεύονται πρόσωπα στο διαδίκτυο, όπως όλοι (ελπίζουμε) μάθαμε να μην εμπιστευόμαστε τα εμφανιζόμενα ονόματα στα email μας", είπε ο Bischoff στο Lifewire μέσω email.

Συνιστάται: