Πώς το AI θα μπορούσε να παρακολουθεί τους επικίνδυνους απογόνους του

Πίνακας περιεχομένων:

Πώς το AI θα μπορούσε να παρακολουθεί τους επικίνδυνους απογόνους του
Πώς το AI θα μπορούσε να παρακολουθεί τους επικίνδυνους απογόνους του
Anonim

Βασικά Takeaways

  • Ένα νέο έγγραφο ισχυρίζεται ότι η τεχνητή νοημοσύνη μπορεί να καθορίσει ποια ερευνητικά έργα ενδέχεται να χρειάζονται περισσότερη ρύθμιση από άλλα.
  • Είναι μέρος μιας αυξανόμενης προσπάθειας για να ανακαλύψουμε τι είδους AI μπορεί να είναι επικίνδυνο.
  • Ένας ειδικός λέει ότι ο πραγματικός κίνδυνος της τεχνητής νοημοσύνης είναι ότι θα μπορούσε να κάνει τους ανθρώπους χαζούς.

Image
Image

Η τεχνητή νοημοσύνη (AI) προσφέρει πολλά οφέλη, αλλά και ορισμένους πιθανούς κινδύνους. Και τώρα, οι ερευνητές έχουν προτείνει μια μέθοδο για να παρακολουθούν τις ηλεκτρονικές δημιουργίες τους.

Μια διεθνής ομάδα λέει σε ένα νέο έγγραφο ότι η τεχνητή νοημοσύνη μπορεί να καθορίσει ποιοι τύποι ερευνητικών έργων ενδέχεται να χρειάζονται περισσότερη ρύθμιση από άλλα. Οι επιστήμονες χρησιμοποίησαν ένα μοντέλο που συνδυάζει έννοιες από τη βιολογία και τα μαθηματικά και αποτελεί μέρος μιας αυξανόμενης προσπάθειας για να ανακαλύψουν τι είδους τεχνητή νοημοσύνη μπορεί να είναι επικίνδυνη.

"Φυσικά, ενώ η "επιστημονική φαντασία" επικίνδυνη χρήση της τεχνητής νοημοσύνης μπορεί να προκύψει αν το αποφασίσουμε […], αυτό που κάνει την τεχνητή νοημοσύνη επικίνδυνη δεν είναι η ίδια η τεχνητή νοημοσύνη, αλλά [πώς τη χρησιμοποιούμε], " Thierry Rayna, είπε ο πρόεδρος της Τεχνολογίας για την Αλλαγή, στην École Polytechnique στη Γαλλία, δήλωσε στο Lifewire σε μια συνέντευξη μέσω email. "Η εφαρμογή της τεχνητής νοημοσύνης μπορεί να είναι είτε ενίσχυση ικανοτήτων (για παράδειγμα, ενισχύει τη συνάφεια των δεξιοτήτων και των γνώσεων του ανθρώπου/εργαζομένου) είτε καταστρέφει τις ικανότητες, δηλαδή, η τεχνητή νοημοσύνη καθιστά τις υπάρχουσες δεξιότητες και γνώσεις λιγότερο χρήσιμες ή παρωχημένες."

Διατήρηση καρτελών

Οι συγγραφείς της πρόσφατης εργασίας έγραψαν σε μια ανάρτηση ότι κατασκεύασαν ένα μοντέλο για την προσομοίωση υποθετικών διαγωνισμών τεχνητής νοημοσύνης. Έτρεξαν την προσομοίωση εκατοντάδες φορές για να προσπαθήσουν να προβλέψουν πώς θα μπορούσαν να λειτουργήσουν οι πραγματικοί αγώνες τεχνητής νοημοσύνης.

"Η μεταβλητή που βρήκαμε ότι είναι ιδιαίτερα σημαντική ήταν η "μήκος" του αγώνα - ο χρόνος που χρειάστηκαν οι προσομοιωμένες φυλές μας για να φτάσουν τον στόχο τους (ένα λειτουργικό προϊόν AI", έγραψαν οι επιστήμονες. "Όταν οι αγώνες τεχνητής νοημοσύνης έφτασαν γρήγορα τον στόχο τους, διαπιστώσαμε ότι οι αγωνιζόμενοι που είχαμε κωδικοποιήσει να παραβλέπουν πάντα τις προφυλάξεις ασφαλείας πάντα κέρδιζαν."

Αντίθετα, οι ερευνητές διαπίστωσαν ότι τα μακροπρόθεσμα έργα τεχνητής νοημοσύνης δεν ήταν τόσο επικίνδυνα, επειδή οι νικητές δεν ήταν πάντα εκείνοι που παραβλέπουν την ασφάλεια. «Δεδομένων αυτών των ευρημάτων, θα είναι σημαντικό για τις ρυθμιστικές αρχές να καθορίσουν πόσο πιθανό είναι να διαρκέσουν διαφορετικοί αγώνες τεχνητής νοημοσύνης, εφαρμόζοντας διαφορετικούς κανονισμούς βάσει των αναμενόμενων χρονοδιαγραμμάτων τους», έγραψαν. "Τα ευρήματά μας υποδεικνύουν ότι ένας κανόνας για όλους τους αγώνες τεχνητής νοημοσύνης - από τα σπριντ έως τους μαραθώνιους - θα οδηγήσει σε ορισμένα αποτελέσματα που απέχουν πολύ από το ιδανικό."

Ο Ντέιβιντ Ζάο, διευθύνων σύμβουλος της Coda Strategy, μιας εταιρείας που συμβουλεύεται την τεχνητή νοημοσύνη, δήλωσε σε μια συνέντευξη μέσω email στο Lifewire ότι ο εντοπισμός επικίνδυνης τεχνητής νοημοσύνης μπορεί να είναι δύσκολος. Οι προκλήσεις έγκεινται στο γεγονός ότι οι σύγχρονες προσεγγίσεις της τεχνητής νοημοσύνης ακολουθούν μια προσέγγιση βαθιάς μάθησης.

"Γνωρίζουμε ότι η βαθιά εκμάθηση παράγει καλύτερα αποτελέσματα σε πολλές περιπτώσεις χρήσης, όπως η ανίχνευση εικόνας ή η αναγνώριση ομιλίας", είπε ο Zhao. "Ωστόσο, είναι αδύνατο για τους ανθρώπους να κατανοήσουν πώς λειτουργεί ένας αλγόριθμος βαθιάς μάθησης και πώς παράγει τα αποτελέσματά του. Επομένως, είναι δύσκολο να πούμε εάν μια τεχνητή νοημοσύνη που παράγει καλά αποτελέσματα είναι επικίνδυνη, επειδή είναι αδύνατο για τους ανθρώπους να καταλάβουν τι συμβαίνει."

Το λογισμικό μπορεί να είναι "επικίνδυνο" όταν χρησιμοποιείται σε κρίσιμα συστήματα, τα οποία έχουν ευπάθειες που μπορούν να εκμεταλλευτούν κακούς παράγοντες ή να παράγουν λανθασμένα αποτελέσματα, δήλωσε μέσω email ο Matt Shea, διευθυντής στρατηγικής στην εταιρεία AI MixMode. Πρόσθεσε ότι η μη ασφαλής τεχνητή νοημοσύνη θα μπορούσε επίσης να οδηγήσει σε ακατάλληλη ταξινόμηση των αποτελεσμάτων, απώλεια δεδομένων, οικονομικές επιπτώσεις ή φυσική ζημιά.

"Με το παραδοσιακό λογισμικό, οι προγραμματιστές κωδικοποιούν αλγόριθμους που μπορούν να εξεταστούν από ένα άτομο για να καταλάβουν πώς να συνδέσουν μια ευπάθεια ή να διορθώσουν ένα σφάλμα κοιτάζοντας τον πηγαίο κώδικα", είπε ο Shea."Με την τεχνητή νοημοσύνη, ωστόσο, ένα μεγάλο μέρος της λογικής δημιουργείται από τα ίδια τα δεδομένα, κωδικοποιημένα σε δομές δεδομένων όπως τα νευρωνικά δίκτυα και τα παρόμοια. Αυτό έχει ως αποτέλεσμα συστήματα που είναι "μαύρα κουτιά" που δεν μπορούν να εξεταστούν για να βρουν και να διορθώσουν ευπάθειες όπως το κανονικό λογισμικό."

Κίνδυνοι μπροστά;

Ενώ η τεχνητή νοημοσύνη έχει παρουσιαστεί σε ταινίες όπως ο Εξολοθρευτής ως μια κακιά δύναμη που σκοπεύει να καταστρέψει την ανθρωπότητα, οι πραγματικοί κίνδυνοι μπορεί να είναι πιο πεζοί, λένε οι ειδικοί. Η Rayna, για παράδειγμα, προτείνει ότι η τεχνητή νοημοσύνη θα μπορούσε να μας κάνει πιο χαζούς.

"Μπορεί να στερήσει τους ανθρώπους από την εκπαίδευση του εγκεφάλου τους και την ανάπτυξη τεχνογνωσίας", είπε. «Πώς μπορείτε να γίνετε ειδικός στα επιχειρηματικά κεφάλαια εάν δεν ξοδεύετε τον περισσότερο χρόνο σας διαβάζοντας εφαρμογές startups; Ακόμη χειρότερα, η τεχνητή νοημοσύνη είναι περιβόητα «μαύρο κουτί» και ελάχιστα εξηγήσιμη. Το να μην γνωρίζουμε γιατί ελήφθη μια συγκεκριμένη απόφαση τεχνητής νοημοσύνης σημαίνει ότι θα υπάρχουν πολύ λίγα πράγματα για να μάθουμε από αυτήν, όπως δεν μπορείτε να γίνετε έμπειρος δρομέας οδηγώντας στο γήπεδο σε ένα Segway."

Είναι δύσκολο να πει κανείς εάν ένα AI που παράγει καλά αποτελέσματα είναι επικίνδυνο, επειδή είναι αδύνατο για τους ανθρώπους να καταλάβουν τι συμβαίνει.

Ίσως η πιο άμεση απειλή από την τεχνητή νοημοσύνη είναι η πιθανότητα να παράσχει μεροληπτικά αποτελέσματα, είπε ο Lyle Solomon, δικηγόρος που γράφει για τις νομικές επιπτώσεις της τεχνητής νοημοσύνης, σε μια συνέντευξη μέσω email.

"Το AI μπορεί να βοηθήσει στην εμβάθυνση των κοινωνικών διαφορών. Το AI βασίζεται ουσιαστικά σε δεδομένα που συλλέγονται από ανθρώπινα όντα", πρόσθεσε ο Solomon. "[Αλλά] παρά τα τεράστια δεδομένα, περιέχει ελάχιστα υποσύνολα και δεν θα περιλαμβάνει αυτό που πιστεύει ο καθένας. Επομένως, δεδομένα που συλλέγονται από σχόλια, δημόσια μηνύματα, κριτικές κ.λπ., με εγγενείς προκαταλήψεις θα κάνουν την τεχνητή νοημοσύνη να ενισχύει τις διακρίσεις και το μίσος."

Συνιστάται: