Πώς το AI μπορεί σύντομα να βοηθήσει τους χάκερ να κλέψουν τις πληροφορίες σας

Πίνακας περιεχομένων:

Πώς το AI μπορεί σύντομα να βοηθήσει τους χάκερ να κλέψουν τις πληροφορίες σας
Πώς το AI μπορεί σύντομα να βοηθήσει τους χάκερ να κλέψουν τις πληροφορίες σας
Anonim

Βασικά Takeaways

  • Εμπειρογνώμονες λένε ότι οι κυβερνοεπιθέσεις με τη βοήθεια AI θα μπορούσαν να παραβιάσουν τα δεδομένα σας.
  • Ο διάσημος εμπειρογνώμονας κυβερνοασφάλειας Bruce Schneier δήλωσε σε πρόσφατη διάσκεψη ότι ανησυχεί όλο και περισσότερο για τη διείσδυση της τεχνητής νοημοσύνης στα συστήματα υπολογιστών.
  • Μία κυβερνοεπίθεση με γνώμονα την τεχνητή νοημοσύνη ξεκίνησε κατά του TaskRabbit το 2018, η οποία έβαλε σε κίνδυνο 3,75 εκατομμύρια χρήστες.
Image
Image

Οι χάκερ θα μπορούσαν σύντομα να εμβαθύνουν στον υπολογιστή σας χρησιμοποιώντας τεχνητή νοημοσύνη.

Ο διάσημος εμπειρογνώμονας κυβερνοασφάλειας Bruce Schneier είπε σε μια διάσκεψη πρόσφατα ότι ανησυχεί ότι η διείσδυση της τεχνητής νοημοσύνης στα συστήματα υπολογιστών είναι αναπόφευκτη. Οι ειδικοί λένε ότι οι επιθέσεις AI είναι μια αυξανόμενη απειλή.

"Με την τεχνητή νοημοσύνη να γίνεται ολοένα και πιο χρήσιμη από την άποψη του hacking, τα δεδομένα των χρηστών και των καταναλωτών μπορεί να κινδυνεύουν σημαντικά περισσότερο", δήλωσε ο Andrew Douglas, ειδικός στον τομέα της κυβερνοασφάλειας στην Deloitte Risk & Financial Advisory, σε συνέντευξη μέσω email. "Οι χάκερ συνήθως αναζητούν τον ευκολότερο στόχο με τη λιγότερη προσπάθεια και η τεχνητή νοημοσύνη θα τους επέτρεπε να στοχεύσουν περισσότερους ανθρώπους με καλύτερες άμυνες σε λιγότερο χρόνο."

Ο Ο Schneier ήταν ο τελευταίος που σήμανε προειδοποίηση για τους κινδύνους της τεχνητής νοημοσύνης. "Οποιοδήποτε καλό σύστημα τεχνητής νοημοσύνης θα βρει φυσικά hacks", φέρεται να είπε ο Schneier στο πρόσφατο συνέδριο. «Βρίσκουν νέες λύσεις επειδή δεν έχουν ανθρώπινο πλαίσιο, και η συνέπεια είναι ότι ορισμένες από αυτές τις λύσεις θα σπάσουν τις προσδοκίες που έχουν οι άνθρωποι – επομένως, μια αμυχή.»

Τηλέφωνα AI στο σπίτι σας

Οι χάκερ χρησιμοποιούν ήδη τεχνητή νοημοσύνη για να διεισδύσουν σε υπολογιστές. Μία κυβερνοεπίθεση με γνώμονα την τεχνητή νοημοσύνη ξεκίνησε κατά του TaskRabbit το 2018, διακυβεύοντας 3.75 εκατομμύρια χρήστες, αλλά αποδεικνύεται ότι δεν είναι ανιχνεύσιμος, είπε ο Chris Hauk, υπέρμαχος της ιδιωτικής ζωής των καταναλωτών στον ιστότοπο Pixel Privacy, σε μια συνέντευξη μέσω email.

"Η επίθεση ξεκίνησε από χάκερ που χρησιμοποιούν ένα μεγάλο botnet ελεγχόμενο από AI, το οποίο χρησιμοποίησε slaved μηχανές για να εκτελέσει μια μαζική επίθεση DDoS στους διακομιστές του TaskRabbit", πρόσθεσε.

Οι αλγόριθμοι μηχανικής εκμάθησης χρησιμοποιήθηκαν για την επιτυχή διείσδυση συστημάτων στο Defcon το 2016, σημείωσε ο Ray Walsh, ειδικός σε θέματα απορρήτου δεδομένων στο ProPrivacy, σε μια συνέντευξη μέσω email. Εκείνη την εποχή, επτά ομάδες διαγωνίστηκαν για το Grand Challenge της DARPA για να κερδίσουν ένα έπαθλο 2 εκατομμυρίων δολαρίων. "Κατά τη διάρκεια της πρόκλησης, οι ανταγωνιστές χρησιμοποίησαν την τεχνητή νοημοσύνη για να βρουν τρωτά σημεία, να δημιουργήσουν εκμεταλλεύσεις και να αναπτύξουν ενημερώσεις κώδικα μέσω αυτοματοποιημένων μέσων", πρόσθεσε.

Bruce Young, καθηγητής κυβερνοασφάλειας στο Πανεπιστήμιο Επιστήμης και Τεχνολογίας του Χάρισμπουργκ, είπε σε μια συνέντευξη μέσω email ότι η τεχνητή νοημοσύνη χρησιμοποιείται για τον έλεγχο των botnets, μιας ομάδας παραβιασμένων υπολογιστών υπό τον έλεγχο ενός κακού ηθοποιού που χρησιμοποιείται για να επιτεθεί σε άλλους υπολογιστές.

"Το AI μπορεί να χρησιμοποιηθεί για την αυτόματη συλλογή πληροφοριών ενός ατόμου, για παράδειγμα, τράπεζα, ιατρική, άδεια οδήγησης, γενέθλια", είπε. "Μπορούν να διατυπώσουν μια περίπλοκη απόπειρα phishing και να παραδώσουν σε έναν χρήστη ένα μήνυμα ηλεκτρονικού ταχυδρομείου που φαίνεται να είναι νόμιμο."

Το Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για χακάρισμα ανακαλύπτοντας τρωτά σημεία και εκμεταλλευόμενος τους, δήλωσε ο Paul Bischoff, υπέρμαχος της ιδιωτικής ζωής στον ιστότοπο Comparitech, σε μια συνέντευξη μέσω email.

Η τεχνητή νοημοσύνη και η μηχανική μάθηση μπορούν να εντοπίσουν μοτίβα που θα έχαναν οι άνθρωποι. Αυτά τα μοτίβα μπορούν να αποκαλύψουν αδυναμίες… Η τεχνητή νοημοσύνη μπορεί στη συνέχεια να εκμεταλλευτεί αυτά τα τρωτά σημεία…

"Η τεχνητή νοημοσύνη και η μηχανική μάθηση μπορούν να εντοπίσουν μοτίβα που θα έλειπαν οι άνθρωποι", πρόσθεσε. "Αυτά τα μοτίβα μπορούν να αποκαλύψουν αδυναμίες στην ασφάλεια στον κυβερνοχώρο ή στη λειτουργική ασφάλεια ενός στόχου. Η τεχνητή νοημοσύνη μπορεί στη συνέχεια να εκμεταλλευτεί αυτές τις ευπάθειες πολύ πιο γρήγορα από έναν άνθρωπο, αλλά και πιο ευέλικτα από ένα παραδοσιακό bot."

Το AI μπορεί να αλλάξει και να βελτιώσει τις επιθέσεις του χωρίς ανθρώπινη συνδρομή, είπε ο Bischoff.

"Το AI είναι ιδιαίτερα κατάλληλο για απόκρυψη και μπορεί να κρυφτεί μέσα σε ένα σύστημα όπου συλλέγει δεδομένα ή εξαπολύει επιθέσεις για μεγάλο χρονικό διάστημα", πρόσθεσε.

Προστατεύοντας τον εαυτό σας από AI

Δυστυχώς, δεν υπάρχει τίποτα συγκεκριμένο που μπορούν να κάνουν οι χρήστες για να προστατευτούν από hacks που βασίζονται σε τεχνητή νοημοσύνη, είπε ο Bischoff.

"Απλώς ακολουθήστε τις συνήθεις οδηγίες", είπε. "Ελαχιστοποιήστε το ψηφιακό σας αποτύπωμα, ενημερώστε το λογισμικό σας, χρησιμοποιήστε προστασία από ιούς, χρησιμοποιήστε τείχος προστασίας, κατεβάστε μόνο αξιόπιστο λογισμικό από αξιόπιστες πηγές, μην κάνετε κλικ σε συνδέσμους ή συνημμένα σε ανεπιθύμητα μηνύματα."

Αλλά, προετοιμαστείτε για περισσότερες επιθέσεις καθοδηγούμενες από AI.

Image
Image

"Το AI χρησιμοποιείται τόσο για την ασφάλεια στον κυβερνοχώρο όσο και για επιθέσεις στον κυβερνοχώρο, και στο μέλλον, ενδέχεται να δούμε συστήματα τεχνητής νοημοσύνης να επιτίθενται το ένα στο άλλο", είπε ο Bischoff. «Για παράδειγμα, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τον εντοπισμό μη ανθρώπινης συμπεριφοράς και την ανάληψη δράσης κατά των bots. Αντίθετα, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί από bot για να μιμηθεί την ανθρώπινη συμπεριφορά με μεγαλύτερη ακρίβεια και να παρακάμψει συστήματα ανίχνευσης ρομπότ."

Ομάδες που χρηματοδοτούνται από το κράτος θα αποτελέσουν πιθανή πηγή hacks AI στο μέλλον, δήλωσε ο Kris Bondi, Διευθύνων Σύμβουλος της εταιρείας κυβερνοασφάλειας Mimoto, σε μια συνέντευξη μέσω email.

"Αυτή η κατηγορία οδηγεί ήδη σε αύξηση των παραβιάσεων που γίνονται όλο και πιο περίπλοκες", πρόσθεσε ο Bondi. "Εάν η τεχνητή νοημοσύνη χρησιμοποιείται αποτελεσματικά για πειρατεία, αυτό πιθανότατα θα σημαίνει ακόμη περισσότερες απόπειρες παραβίασης που είναι ακόμη πιο εξελιγμένες. Αυτό έχει συνέπειες για τα άτομα, τις υποδομές, την εταιρική κατασκοπεία και την εθνική ασφάλεια."

Συνιστάται: