Βασικά Takeaways
- Ο βοηθός φωνής Alexa της Amazon μπορεί να αντιγράψει μια φωνή με μόλις ένα λεπτό ήχου.
- Μπορείτε να ζητήσετε από την Alexa να διαβάσει μια ιστορία με τη φωνή ενός νεκρού γονέα.
- Είναι η ίδια ιδέα με τα βαθιά ψεύτικα, που χρησιμοποιούνται μόνο για τις δυνάμεις του καλού.
Το πιο πρόσφατο τέχνασμα της Amazon Alexa είναι να μάθει να μιμείται τη φωνή ενός νεκρού αγαπημένου προσώπου, ώστε να μπορεί να σας μιλήσει πέρα από τον τάφο.
Η Alexa χρειάζεται μόνο ένα λεπτό προφορικού ήχου για να μιμηθεί πειστικά μια φωνή. Η Amazon το χαρακτηρίζει ως ένα ανακουφιστικό χαρακτηριστικό που μπορεί να σας φέρει σε επαφή με αγαπημένα πρόσωπα, αλλά θα μπορούσε επίσης να είναι μια αρκετά ανατριχιαστική εμπειρία. Και δείχνει πόσο εύκολο είναι να φτιάχνουμε βαθύ ψεύτικο ήχο που είναι αρκετά καλό για να μας ξεγελάσει, ακόμα κι όταν η φωνή είναι κάτι που γνωρίζουμε πολύ καλά.
"Το Amazon έχει μπει σίγουρα σε μια μάλλον μοναδική και παράξενη περιοχή με την ανακοίνωσή της ότι η Alexa θα μπορεί σύντομα να μάθει και στη συνέχεια να χρησιμοποιήσει τη φωνή των νεκρών συγγενών σύντομα", είπε ο Bill Mann, ειδικός σε θέματα ιδιωτικότητας στο Restore Privacy. Lifewire μέσω email. "Για μερικούς ανθρώπους, δεν είναι καθόλου ανατριχιαστικό. Στην πραγματικότητα, μπορεί να είναι μάλλον συγκινητικό."
Ghost in the Machine
Στο πλαίσιο του ετήσιου συνεδρίου re:MARS, η Amazon παρουσιάζει τη δυνατότητα σε ένα σύντομο βίντεο. Σε αυτό, ένα παιδί ρωτά την Alexa εάν η γιαγιά μπορεί να συνεχίσει να του διαβάζει "Ο Μάγος του Οζ", το αγαπημένο έργο του δημόσιου τομέα που είναι φιλικό προς τον κεντρικό υπολογιστή. Και είναι αρκετά συγκινητική στιγμή. Είναι δύσκολο να μην νιώσεις ανθρώπινα συναισθήματα όταν η γιαγιά αρχίζει να διαβάζει.
"Οι άνθρωποι παλεύουν με τη θνησιμότητα, ειδικά στη δυτική κουλτούρα. Επί αιώνες προσπαθούσαμε να βρούμε τρόπους για να μνημονεύσουμε τους νεκρούς, από μάσκες θανάτου, σε τούμπες μαλλιών, σε παλιές φωτογραφίες, μέχρι να παρακολουθήσουμε παλιές ταινίες, " Andrew Selepak, ένας καθηγητής κοινωνικών μέσων στο Πανεπιστήμιο της Φλόριντα, είπε στο Lifewire μέσω email. "Τα Deepfakes χρησιμοποιούν την πιο πρόσφατη τεχνολογία για να δημιουργήσουν μια νέα μάσκα θανάτου ενός αποθανόντος αγαπημένου προσώπου. Αλλά, ανάλογα με την οπτική γωνία του ατόμου, είναι ανατριχιαστικό ή ένας τρόπος να μνημονεύσετε και να κρατήσετε κάποιον που αγαπάτε αφού πεθάνει;"
Αλλά ένα memento mori μπορεί να είναι ανακουφιστικό και ανατριχιαστικό. Ο φίλος ενός μέλους της οικογένειας είναι νεκρός, αλλά μπορείτε ακόμα να τον ακούσετε να μιλάνε. Δεν βοηθά το γεγονός ότι η Alexa έχει ιστορικό περίεργης και μερικές φορές τρομακτικής συμπεριφοράς. Το 2018, καθώς ο αρθρογράφος της κοινής γνώμης των NYT, Farhad Manjoo, έπεφτε στο κρεβάτι, το Amazon Echo του "άρχισε να κλαίει, σαν ένα παιδί που ουρλιάζει σε όνειρο ταινίας τρόμου."
Λίγο αργότερα, η Amazon αναγνώρισε ότι η Alexa μερικές φορές γελούσε δυνατά, κάτι που, μαζί με τους εφήβους και τα κελάρια, είναι η ταινία τρόμου 101.
Μπορεί κανείς μόνο να αναρωτηθεί πώς θα νιώθατε αν η Alexa έκανε τα ίδια κόλπα στη φωνή της γιαγιάς.
Deep Fake
Η φαινομενική ευκολία με την οποία η Alexa μαθαίνει να μιμείται μια φωνή μας οδηγεί σε πιο άθλιες χρήσεις της κλωνοποίησης φωνής: βαθιά ψεύτικα.
"Ο Deepfake ήχος δεν είναι νέος, ακόμα κι αν είναι ελάχιστα κατανοητός και ελάχιστα γνωστός. Η τεχνολογία είναι διαθέσιμη εδώ και χρόνια για να αναδημιουργήσει τη φωνή ενός ατόμου με τεχνητή νοημοσύνη και βαθιά μάθηση χρησιμοποιώντας σχετικά λίγο πραγματικό ήχο από το άτομο." λέει ο Σελέπακ. "Τέτοια τεχνολογία θα μπορούσε επίσης να είναι επικίνδυνη και καταστροφική. Ένα διαταραγμένο άτομο θα μπορούσε να αναδημιουργήσει τη φωνή ενός νεκρού πρώην φίλου ή φίλης του και να χρησιμοποιήσει τον νέο ήχο για να πει απεχθή και προσβλητικά πράγματα."
Αυτό είναι ακριβώς στο πλαίσιο της Alexa. Ο βαθύς ψεύτικος ήχος θα μπορούσε να πάει πολύ πέρα από αυτό, πείθοντας τους ανθρώπους ότι οι εξέχοντες πολιτικοί πιστεύουν πράγματα που δεν πιστεύουν, για παράδειγμα. Αλλά από την άλλη πλευρά, όσο περισσότερο συνηθίζουμε σε αυτά τα βαθιά ψεύτικα -ίσως με τη μορφή αυτών των φωνών Alexa- τόσο περισσότερο θα είμαστε δύσπιστοι για τα πιο άθλια ψεύτικα. Και πάλι, δεδομένου του πόσο εύκολο είναι να διαδοθούν ψέματα στο Facebook, ίσως όχι.
Η Amazon δεν έχει πει εάν αυτή η δυνατότητα έρχεται στην Alexa ή αν είναι απλώς μια επίδειξη τεχνολογίας. Ελπίζω κάπως να γίνει. Η τεχνολογία είναι στα καλύτερά της όταν χρησιμοποιείται με ανθρωπιστικό τρόπο όπως αυτό, και παρόλο που η εύκολη αντίδραση είναι να την αποκαλέσουμε ανατριχιαστική, όπως λέει ο Selepak, δεν διαφέρει πραγματικά από την παρακολούθηση παλαιών βίντεο ή την ακρόαση αποθηκευμένων φωνητικών μηνυμάτων. σαν χαρακτήρας σε τηλεοπτική εκπομπή με νωχελικό σενάριο.
Και αν η τεχνολογία για βαθιά απομιμήσεις είναι άμεσα διαθέσιμη, γιατί να μην τη χρησιμοποιήσουμε για να παρηγορηθούμε;