Βασικά Takeaways
- Μια πρόσφατη μελέτη διαπίστωσε ότι πολλές επαφές στο LinkedIn δεν είναι πραγματικοί άνθρωποι.
- Αποτελεί μέρος του αυξανόμενου προβλήματος των απομιμήσεων σε βάθος, στο οποίο ένα άτομο σε μια υπάρχουσα εικόνα ή βίντεο αντικαθίσταται από μια αναπαράσταση που έχει τροποποιηθεί από υπολογιστή.
-
Οι ειδικοί συνιστούν να είστε προσεκτικοί όταν κάνετε κλικ σε διευθύνσεις URL ή όταν απαντάτε σε μηνύματα LinkedIn.
Μπορείτε να σκεφτείτε δύο φορές πριν συνδεθείτε με αυτό το φιλικό πρόσωπο στο διαδίκτυο.
Ερευνητές λένε ότι πολλές επαφές στον δημοφιλή ιστότοπο δικτύωσης LinkedIn δεν είναι πραγματικοί άνθρωποι. Είναι μέρος του αυξανόμενου προβλήματος των απομιμήσεων σε βάθος, στο οποίο ένα άτομο σε μια υπάρχουσα εικόνα ή βίντεο αντικαθίσταται από μια αναπαράσταση που έχει τροποποιηθεί από υπολογιστή.
"Τα βαθιά ψεύτικα είναι σημαντικά καθώς εξαλείφουν αποτελεσματικά αυτό που παραδοσιακά θεωρούνταν ασφαλής μέθοδος επιβεβαίωσης της ταυτότητας", δήλωσε στο Lifewire ο Tim Callan, επικεφαλής συμμόρφωσης της εταιρείας κυβερνοασφάλειας Sectigo σε μια συνέντευξη μέσω email. "Εάν δεν μπορείτε να πιστέψετε ένα φωνητικό μήνυμα ή ένα μήνυμα βίντεο από τον έμπιστο συνάδελφό σας, τότε είναι πολύ πιο δύσκολο να προστατεύσετε την ακεραιότητα της διαδικασίας."
Σύνδεση με ποιον;
Η έρευνα για τις επαφές του LinkedIn ξεκίνησε όταν η Renée DiResta, ερευνήτρια στο Stanford Internet Observatory, έλαβε ένα μήνυμα από ένα προφίλ που αναφέρεται ως Keenan Ramsey.
Το σημείωμα φαινόταν συνηθισμένο, αλλά ο DiResta σημείωσε μερικά περίεργα πράγματα σχετικά με το προφίλ του Keenan. Για ένα πράγμα, η εικόνα απεικόνιζε μια γυναίκα με ένα μόνο σκουλαρίκι, τέλεια κεντραρισμένα μάτια και θολές τρίχες που έμοιαζαν να εξαφανίζονται και να επανεμφανίζονται.
Στο Twitter, ο DiResta έγραψε: "Αυτός ο τυχαίος λογαριασμός μου έστειλε μήνυμα… Το πρόσωπο έμοιαζε με τεχνητή νοημοσύνη, οπότε η πρώτη μου σκέψη ήταν το spear phishing· έστειλε έναν σύνδεσμο "κάντε κλικ εδώ για να ρυθμίσετε μια συνάντηση". Αναρωτήθηκα αν προσποιούνταν ότι εργαζόταν για την εταιρεία που ισχυριζόταν ότι εκπροσωπούσε, καθώς το LinkedIn δεν λέει στις εταιρείες πότε νέοι λογαριασμοί ισχυρίζονται ότι λειτουργούν κάπου… Αλλά μετά έλαβα εισερχόμενα από ένα άλλο ψεύτικο, ακολουθούμενο από μια επόμενη σημείωση από μια προφανώς πραγματική υπάλληλος που αναφέρεται σε ένα προηγούμενο μήνυμα από το πρώτο ψεύτικο άτομο και μετατράπηκε σε κάτι άλλο εντελώς."
DiResta και ο συνάδελφός της, Josh Goldstein, ξεκίνησαν μια μελέτη που βρήκε περισσότερα από 1.000 προφίλ LinkedIn χρησιμοποιώντας πρόσωπα που φαίνεται να έχουν δημιουργηθεί από AI.
Deep Fakers
Οι βαθιές απομιμήσεις είναι ένα αυξανόμενο πρόβλημα. Πάνω από 85.000 βαθιά ψεύτικα βίντεο εντοπίστηκαν έως τον Δεκέμβριο του 2020, σύμφωνα με μια δημοσιευμένη αναφορά.
Πρόσφατα, τα βαθιά ψεύτικα έχουν χρησιμοποιηθεί για διασκέδαση και για να επιδεικνύουν την τεχνολογία, συμπεριλαμβανομένου ενός παραδείγματος στο οποίο ο πρώην πρόεδρος Μπαράκ Ομπάμα μίλησε για ψεύτικες ειδήσεις και ψεύτικες ειδήσεις.
"Ενώ αυτό ήταν εξαιρετικό για διασκέδαση, με επαρκή ιπποδύναμη και εφαρμογές υπολογιστή, θα μπορούσατε να παράγετε κάτι που [ούτε] οι υπολογιστές ούτε το ανθρώπινο αυτί μπορούν να διακρίνουν, " Andy Rogers, ανώτερος αξιολογητής στη Schellman, μια παγκόσμια αξιολογητής κυβερνοασφάλειας, είπε σε ένα email."Αυτά τα βαθιά ψεύτικα βίντεο θα μπορούσαν να χρησιμοποιηθούν για οποιονδήποτε αριθμό εφαρμογών. Για παράδειγμα, διάσημοι άνθρωποι και διασημότητες σε πλατφόρμες κοινωνικών μέσων όπως το LinkedIn και το Facebook θα μπορούσαν να κάνουν δηλώσεις που επηρεάζουν την αγορά και άλλο εξαιρετικά πειστικό περιεχόμενο αναρτήσεων."
Οι χάκερ, συγκεκριμένα, στρέφονται στα deepfakes επειδή τόσο η τεχνολογία όσο και τα πιθανά θύματά της γίνονται πιο εξελιγμένα.
"Είναι πολύ πιο δύσκολο να διαπράξει κανείς μια επίθεση κοινωνικής μηχανικής μέσω εισερχόμενων μηνυμάτων ηλεκτρονικού ταχυδρομείου, ειδικά καθώς οι στόχοι εκπαιδεύονται όλο και περισσότερο σχετικά με το spear phishing ως απειλή", είπε η Callan.
Οι πλατφόρμες πρέπει να καταπολεμήσουν τα deepfakes, δήλωσε στο Lifewire μέσω email ο Joseph Carson, επικεφαλής επιστήμονας ασφάλειας στην εταιρεία κυβερνοασφάλειας Delinea. Πρότεινε οι μεταφορτώσεις σε ιστότοπους να περάσουν από αναλυτικά στοιχεία για να προσδιοριστεί η αυθεντικότητα του περιεχομένου.
Εάν σε μια ανάρτηση δεν παρέχεται κανένας τύπος αξιόπιστης πηγής ή περιβάλλοντος, τότε η σωστή επισήμανση του περιεχομένου θα πρέπει να είναι σαφής στον θεατή ότι η πηγή περιεχομένου έχει επαληθευτεί, εξακολουθεί να αναλύεται ή ότι το περιεχόμενο έχει τροποποιηθεί σημαντικά», πρόσθεσε ο Κάρσον.
Τα βαθιά ψεύτικα είναι σημαντικά καθώς εξαλείφουν αποτελεσματικά αυτό που παραδοσιακά θεωρούνταν ασφαλής μέθοδος επιβεβαίωσης ταυτότητας.
Οι ειδικοί συνιστούν στους χρήστες να είναι προσεκτικοί όταν κάνουν κλικ σε διευθύνσεις URL ή απαντούν σε μηνύματα LinkedIn. Να γνωρίζετε ότι η φωνή και ακόμη και οι κινούμενες εικόνες των υποτιθέμενων συναδέλφων μπορούν να παραποιηθούν, πρότεινε η Callan. Προσεγγίστε αυτές τις αλληλεπιδράσεις με το ίδιο επίπεδο σκεπτικισμού που έχετε για τις επικοινωνίες που βασίζονται σε κείμενο.
Ωστόσο, αν ανησυχείτε για τη χρήση της ταυτότητάς σας σε ένα βαθύ ψεύτικο, η Callan είπε ότι δεν υπάρχει απλή λύση.
"Τα καλύτερα μέτρα προστασίας πρέπει να τεθούν σε εφαρμογή από εκείνους που αναπτύσσουν και χειρίζονται τις πλατφόρμες ψηφιακών επικοινωνιών που χρησιμοποιείτε", πρόσθεσε η Callan. "Ένα σύστημα που επιβεβαιώνει τις [ταυτότητες] των συμμετεχόντων χρησιμοποιώντας άθραυστες κρυπτογραφικές τεχνικές μπορεί πολύ αποτελεσματικά να υπονομεύσει αυτό το είδος κινδύνου."