Βασικά Takeaways
- Εταιρείες λογισμικού πραγματοποιούν αναζήτηση μέσω εκατομμυρίων δημοσίως διαθέσιμων φωτογραφιών στο διαδίκτυο για τη δημιουργία συστημάτων αναγνώρισης προσώπου.
- Ένας νέος ιστότοπος σάς βοηθά να μάθετε εάν οι φωτογραφίες σας στο Flickr χρησιμοποιήθηκαν για έρευνα τεχνητής νοημοσύνης.
- Η χρήση διαδικτυακών φωτογραφιών από μεγάλες εταιρείες τεχνολογίας αποτελεί παραβίαση της ιδιωτικής ζωής, λένε ορισμένοι ειδικοί.
Εταιρείες λογισμικού συλλέγουν ιδιωτικές φωτογραφίες για να δημιουργήσουν συστήματα αναγνώρισης προσώπου και ένας νέος ιστότοπος μπορεί να σας βοηθήσει να προσδιορίσετε εάν οι φωτογραφίες σας είναι μεταξύ αυτών.
Ο ιστότοπος, που ονομάζεται exposing.ai, πραγματοποιεί αναζήτηση σε δημόσιες βάσεις δεδομένων για να προσδιορίσει εάν οι φωτογραφίες σας στο Flickr χρησιμοποιήθηκαν για έρευνα τεχνητής νοημοσύνης. Οι προγραμματιστές λογισμικού χρησιμοποιούν συχνά εικόνες που είναι διαθέσιμες στο κοινό για να εκπαιδεύσουν τα συστήματα αναγνώρισής τους. Η πρακτική μπορεί να είναι νόμιμη, αλλά ορισμένοι ειδικοί πιστεύουν ότι δεν είναι ηθική.
"Το γεγονός ότι αυτές οι φωτογραφίες χρησιμοποιούνται εν αγνοία των ανθρώπων αποτελεί σημαντική παραβίαση της ιδιωτικής ζωής", δήλωσε ο Thierry Tremblay, ο Διευθύνων Σύμβουλος και ιδρυτής της εταιρείας λογισμικού βάσης δεδομένων Kohezion, σε μια συνέντευξη μέσω email. "Αυτό είναι μια ιδιαίτερη ανησυχία για τις μειονότητες που θα μπορούσαν να έχουν προφίλ και στόχευση. Επιπλέον, οι χρήστες δεν συναινούν απαραίτητα να σαρώνονται κάθε φορά που βγαίνουν δημόσια."
Το Flickr μπορεί να αποκαλύψει περισσότερα από όσα ξέρετε
Ο ιστότοπος exposing.ai λειτουργεί κοιτάζοντας αν οι φωτογραφίες σας συμπεριλήφθηκαν σε δημόσια διαθέσιμα σύνολα δεδομένων. Αναζητά ονόματα χρήστη Flickr και αναγνωριστικά φωτογραφιών. Το μόνο που έχετε να κάνετε είναι να εισαγάγετε το όνομα χρήστη, τη διεύθυνση URL φωτογραφίας ή το hashtag στο Flickr στη γραμμή αναζήτησης του ιστότοπου.
Ο ιστότοπος κυκλοφόρησε τον περασμένο μήνα και βασίζεται σε χρόνια έρευνας σε δημόσια σύνολα δεδομένων εικόνων, έγραψαν οι δημιουργοί του Exposing.ai στον ιστότοπο. "Η αφήγηση της περίπλοκης ιστορίας του πώς οι χθεσινές φωτογραφίες έγιναν τα σημερινά δεδομένα εκπαίδευσης είναι μέρος του στόχου αυτού του συνεχιζόμενου έργου", είπαν.
Ο ιστότοπος πραγματοποιεί αναζήτηση σε εκατομμύρια εγγραφές, αλλά "υπάρχουν αμέτρητα περισσότερα σύνολα δεδομένων εκπαίδευσης για την αναγνώριση προσώπου και αφαιρούνται συνεχώς από τα μέσα κοινωνικής δικτύωσης, τις ειδήσεις και τους ιστότοπους ψυχαγωγίας", έγραψαν.
Οι εταιρείες ανεβοκατεβάζουν εικόνες για να ενισχύσουν τα έργα λογισμικού τους. «Σίγουρα οι τεχνολογικοί γίγαντες όπως η Google, η Amazon, το Facebook και η Apple ασχολούνται βαθιά με την έρευνα και την εξερεύνηση της τεχνολογίας αναγνώρισης προσώπου», δήλωσε ο Nat Maple, επικεφαλής μάρκετινγκ της εταιρείας κυβερνοασφάλειας BullGuard, σε μια συνέντευξη μέσω email.
Ένας αγώνας εξοπλισμών για φωτογραφίες
Η απόξεση φωτογραφιών είναι μέρος ενός αγώνα εξοπλισμών μεταξύ των εταιρειών για την ανάπτυξη καλύτερης αναγνώρισης προσώπου. Για παράδειγμα, η εταιρεία Clearview AI απορρόφησε 3 δισεκατομμύρια εικόνες και το πήγε ένα βήμα παραπέρα δημιουργώντας μια εφαρμογή AI, σημείωσε η Maple.
Η εφαρμογή λειτουργεί ως μηχανή αναζήτησης και επιτρέπει σε έναν χρήστη να τραβήξει μια φωτογραφία κάποιου, να το ανεβάσει και να δει μια λίστα με δημόσιες φωτογραφίες αυτού του ατόμου και συνδέσμους προς το σημείο από όπου προήλθαν.
Το γεγονός ότι αυτές οι φωτογραφίες χρησιμοποιούνται εν αγνοία των ανθρώπων αποτελεί σημαντική παραβίαση απορρήτου.
"Αρκετά ενδιαφέρον, βλέπουμε τους περισσότερους δισταγμούς για αυτό το λογισμικό σε επίπεδο κυβέρνησης/επιβολής του νόμου, λόγω νομιμότητας και ανησυχιών σχετικά με το προφίλ", δήλωσε η Laura Hoffner, υπεύθυνη κρίσεων στην εταιρεία συμβούλων κινδύνου Concentric Advisors. συνέντευξη μέσω email.
"Αλλά αυτό σημαίνει ότι η ιδιωτική βιομηχανία αντικαθιστά την κυβέρνηση σε εμπειρία και πρόσβαση."
Οι χρήστες που θέλουν να διατηρήσουν ιδιωτικές τις φωτογραφίες που έχουν ήδη δημοσιεύσει στο διαδίκτυο έχουν περιορισμένες επιλογές. «Δεν υπάρχουν πολλά που μπορείτε να κάνετε εκτός από την επιλογή πυρηνικής ενέργειας, δηλαδή να προσλάβετε έναν δικηγόρο και να μηνύσετε την εν λόγω εταιρεία», είπε ο Maple. «Αλλά φυσικά, πρέπει να είσαι αφοσιωμένος και να έχεις χρήματα."
Προστατεύστε το πρόσωπό σας
Εάν θέλετε να μην χρησιμοποιούνται οι φωτογραφίες που δεν έχετε ακόμη δημοσιεύσει για ερευνητικά έργα, υπάρχουν εργαλεία λογισμικού που συγκαλύπτουν τις φωτογραφίες κάνοντας αλλαγές σε επίπεδο pixel για να μπερδεύουν τα συστήματα αναγνώρισης προσώπου, είπε η Maple.
Για παράδειγμα, ερευνητές στο Πανεπιστήμιο του Σικάγο ανέπτυξαν λογισμικό που ονομάζεται Fawkes για να μειώσει την ακρίβεια των συνόλων δεδομένων φωτογραφιών που συλλέγουν τα εργαλεία αναγνώρισης προσώπου από τον Ιστό.
Ωστόσο, η Microsoft πρόσφατα έκανε αλλαγές στην πλατφόρμα αναγνώρισης προσώπου της Azure "που προφανώς έχουν σχεδιαστεί για να υπονομεύουν την αποτελεσματικότητα της τρέχουσας έκδοσης του Fawkes", είπε ο Maple.
Ο καλύτερος τρόπος για να διατηρήσετε τις φωτογραφίες σας ιδιωτικές είναι να βεβαιωθείτε ότι δεν κυκλοφορούν στο διαδίκτυο, δήλωσε ο Sean O'Brien, κύριος ερευνητής στο ExpressVPN Digital Security Lab, σε μια συνέντευξη μέσω email. Πρότεινε να κλειδώσετε τους λογαριασμούς σας στα μέσα κοινωνικής δικτύωσης ορίζοντας το προφίλ σας σε ιδιωτικό ή ακόμα και να διαγράψετε εντελώς τα μέσα κοινωνικής δικτύωσης.
"Έχουμε μόνο ένα πρόσωπο και πρέπει να το αντιμετωπίζουμε με περισσότερη προσοχή από έναν κωδικό πρόσβασης", είπε ο O'Brien. "Είναι κρίσιμο οι καταναλωτές να θεωρούν υπεύθυνες τις εταιρείες τεχνολογίας και τις κυβερνήσεις για την εφαρμογή τεχνολογικής πολιτικής που μας προστατεύει και επιλύει τις ελλείψεις της αναγνώρισης προσώπου που σχετίζονται με το απόρρητο."