Η τεχνολογία Deepfake του Facebook δεν θα μας σώσει, λένε οι ειδικοί

Πίνακας περιεχομένων:

Η τεχνολογία Deepfake του Facebook δεν θα μας σώσει, λένε οι ειδικοί
Η τεχνολογία Deepfake του Facebook δεν θα μας σώσει, λένε οι ειδικοί
Anonim

Βασικά Takeaways

  • Καθώς τα deepfakes γίνονται πιο εύκολα, νέοι και βελτιωμένοι τρόποι εντοπισμού τους έχουν γίνει προτεραιότητα.
  • Η τεχνολογία deepfake-spotting του Facebook χρησιμοποιεί αντίστροφη μηχανική εκμάθηση για να αποκαλύψει εάν ένα βίντεο είναι ψεύτικο ή όχι.
  • Οι ειδικοί λένε ότι η χρήση της τεχνολογίας blockchain θα ήταν ο καλύτερος τρόπος για να δούμε αν ένα βίντεο είναι πραγματικό ή όχι, καθώς η μέθοδος βασίζεται σε δεδομένα συμφραζομένων.
Image
Image

Το Facebook είναι σίγουρο για το μοντέλο μηχανικής μάθησης που διαθέτει για την καταπολέμηση των deepfakes, αλλά οι ειδικοί λένε ότι η μηχανική εκμάθηση από μόνη της δεν θα μας σώσει από το να εξαπατηθούμε από τα deepfakes.

Εταιρείες όπως το Facebook, η Microsoft και η Google εργάζονται όλες για την καταπολέμηση των deepfakes που διαδίδονται στον ιστό και στα κοινωνικά δίκτυα. Αν και οι μέθοδοι διαφέρουν, υπάρχει μια πιθανή ανόητη μέθοδος για να εντοπίσετε αυτά τα ψευδή βίντεο: blockchains.

"Οι [Blockchains] απλώς σας δίνουν πολλές δυνατότητες να επικυρώσετε το deepfake με τρόπο που είναι η καλύτερη μορφή επικύρωσης που μπορώ να δω", ο Stephen Wolfram, ιδρυτής και διευθύνων σύμβουλος της Wolfram Research και συγγραφέας του A New Kind of Science, είπε στο Lifewire τηλεφωνικά.

Τεχνολογία Deepfake-Spotting του Facebook

Η τεχνολογία Deepfake έχει αναπτυχθεί ραγδαία τα τελευταία χρόνια. Τα παραπλανητικά βίντεο χρησιμοποιούν μεθόδους μηχανικής εκμάθησης για να κάνουν πράγματα όπως η τοποθέτηση του προσώπου κάποιου στο σώμα άλλου ατόμου, η αλλαγή συνθηκών φόντου, ο ψεύτικος συγχρονισμός των χειλιών και πολλά άλλα. Κυμαίνονται από αβλαβείς παρωδίες μέχρι να κάνουν διασημότητες ή δημόσια πρόσωπα να λένε ή να κάνουν κάτι που δεν έκαναν.

Οι ειδικοί λένε ότι η τεχνολογία προχωρά γρήγορα και ότι τα deepfakes θα γίνουν πιο πειστικά (και πιο εύκολα στη δημιουργία), καθώς η τεχνολογία γίνεται πιο ευρέως διαθέσιμη και πιο καινοτόμα.

Image
Image

Το Facebook έδωσε πρόσφατα περισσότερες πληροφορίες σχετικά με την τεχνολογία ανίχνευσης ψεύτικα ψεύτικα σε συνεργασία με το Πολιτειακό Πανεπιστήμιο του Μίσιγκαν. Το κοινωνικό δίκτυο λέει ότι βασίζεται στην αντίστροφη μηχανική από μια ενιαία εικόνα που δημιουργείται από τεχνητή νοημοσύνη έως το μοντέλο παραγωγής που χρησιμοποιείται για την παραγωγή της.

Ερευνητές που συνεργάστηκαν με το Facebook είπαν ότι η μέθοδος βασίζεται στην αποκάλυψη των μοναδικών μοτίβων πίσω από το μοντέλο AI που χρησιμοποιείται για τη δημιουργία ενός deepfake.

«Γενεύοντας την απόδοση εικόνας στην αναγνώριση ανοιχτού συνόλου, μπορούμε να συμπεράνουμε περισσότερες πληροφορίες σχετικά με το παραγωγικό μοντέλο που χρησιμοποιείται για τη δημιουργία ενός deepfake που ξεπερνά την αναγνώριση ότι δεν έχει ξαναδει. Και ανιχνεύοντας ομοιότητες μεταξύ των μοτίβων μιας συλλογής deepfakes, θα μπορούσαμε επίσης να πούμε εάν μια σειρά εικόνων προήλθε από μία μόνο πηγή», έγραψαν οι ερευνητές επιστήμονες Xi Yin και Tan Hassner στην ανάρτηση στο blog του Facebook σχετικά με τη μέθοδο deepfake-spotting.

Image
Image

Η Wolfram λέει ότι είναι λογικό να χρησιμοποιούσατε τη μηχανική εκμάθηση για να εντοπίσετε ένα προηγμένο μοντέλο AI (ένα deepfake). Ωστόσο, υπάρχει πάντα χώρος για να ξεγελάσετε την τεχνολογία.

«Δεν εκπλήσσομαι καθόλου που υπάρχει ένας αξιοπρεπής τρόπος μηχανικής εκμάθησης [ανίχνευσης deepfakes]», είπε ο Wolfram. «Το μόνο ερώτημα είναι αν καταβάλεις αρκετή προσπάθεια, μπορείς να το ξεγελάσεις; Είμαι σίγουρος ότι μπορείς."

Καταπολέμηση των Deepfakes με διαφορετικό τρόπο

Αντίθετα, ο Wolfram είπε ότι πιστεύει ότι η χρήση blockchain θα ήταν η καλύτερη επιλογή για τον ακριβή εντοπισμό ορισμένων τύπων deepfakes. Η άποψή του για τη χρήση του blockchain έναντι της μηχανικής μάθησης χρονολογείται από το 2019 και είπε ότι, τελικά, η προσέγγιση blockchain μπορεί να προσφέρει μια πιο ακριβή λύση στο πρόβλημά μας με το deepfake.

«Θα περίμενα ότι οι θεατές εικόνων και βίντεο θα μπορούσαν να ελέγχουν τακτικά σε σχέση με τις αλυσίδες μπλοκ (και τους «υπολογισμούς τριγωνοποίησης δεδομένων») λίγο σαν τον τρόπο με τον οποίο τα προγράμματα περιήγησης ιστού ελέγχουν τώρα τα πιστοποιητικά ασφαλείας», έγραψε ο Wolfram σε ένα άρθρο που δημοσιεύτηκε στο Scientific American.

Δεδομένου ότι οι αλυσίδες μπλοκ αποθηκεύουν δεδομένα σε μπλοκ που στη συνέχεια συνδέονται μεταξύ τους με χρονολογική σειρά και δεδομένου ότι οι αποκεντρωμένες αλυσίδες μπλοκ είναι αμετάβλητες, τα δεδομένα που εισάγονται είναι μη αναστρέψιμα.

Το μόνο ερώτημα είναι αν καταβάλεις αρκετή προσπάθεια, μπορείς να το ξεγελάσεις; Είμαι σίγουρος ότι μπορείς.

Ο Ο Wolfram εξήγησε ότι τοποθετώντας ένα βίντεο σε ένα blockchain, θα μπορείτε να δείτε την ώρα λήψης του, την τοποθεσία και άλλες πληροφορίες που θα σας επιτρέψουν να διαπιστώσετε εάν έχει τροποποιηθεί με οποιονδήποτε τρόπο.

"Γενικά, έχοντας όσο περισσότερα μεταδεδομένα υπάρχουν που προσαρμόζουν την εικόνα ή το βίντεο, τόσο πιο πιθανό είναι να μπορείτε να το πείτε", είπε. "Δεν μπορείς να πλαστογραφήσεις χρόνο σε μια αλυσίδα μπλοκ."

Ωστόσο, ο Wolfram είπε ότι η μέθοδος που χρησιμοποιείται - είτε πρόκειται για μηχανική μάθηση είτε για χρήση blockchain - εξαρτάται από τον τύπο του deepfake από τον οποίο προσπαθείτε να προστατεύσετε (δηλαδή, ένα βίντεο της Κιμ Καρντάσιαν που λέει κάτι ανόητο ή ένα βίντεο ενός πολιτικός που κάνει μια δήλωση ή πρόταση).

"Η προσέγγιση του blockchain προστατεύει από ορισμένα είδη απομιμήσεων σε βάθος, όπως ακριβώς η επεξεργασία εικόνων μηχανικής μάθησης προστατεύει από ορισμένα είδη απομιμήσεων σε βάθος", είπε.

Η ουσία, φαίνεται, είναι η επαγρύπνηση για όλους μας όταν πρόκειται για την καταπολέμηση του επερχόμενου κατακλυσμού.

Συνιστάται: