Το AI μπορεί να μην είναι ακόμα η καλύτερη πηγή για συμβουλές

Πίνακας περιεχομένων:

Το AI μπορεί να μην είναι ακόμα η καλύτερη πηγή για συμβουλές
Το AI μπορεί να μην είναι ακόμα η καλύτερη πηγή για συμβουλές
Anonim

Βασικά Takeaways

  • Οι δημοφιλείς βοηθοί φωνής που τροφοδοτούνται με τεχνητή νοημοσύνη είναι καλοί στην αναπαράσταση γεγονότων, αλλά δεν μπορούν να κάνουν ουσιαστικές συζητήσεις.
  • Ο περιορισμός οφείλεται στον σχεδιασμό της τρέχουσας γενιάς τεχνητής νοημοσύνης που αποκτά την εξυπνάδα της με την εκπαίδευση σε ένα μεγάλο σύνολο δεδομένων, εξηγούν οι ειδικοί.
  • Αυτό εμποδίζει επίσης την τεχνητή νοημοσύνη να πάρει γλωσσικές αποχρώσεις, καθιστώντας τις πραγματικές συνομιλίες αδύνατες προς το παρόν.
Image
Image

Οι εικονικοί βοηθοί είναι υπέροχοι στο να ακολουθούν τις εντολές σας, αλλά είναι τρομεροί στο να δίνουν συμβουλές ζωής. Ποιος θα το φανταζόταν;

Ο συντάκτης του Tidio Kazimierz Rajnerowicz αφιέρωσε πάνω από 30 ώρες ρωτώντας μισή ντουζίνα δημοφιλείς φωνητικούς βοηθούς και chatbot με τεχνητή νοημοσύνη (AI) κάθε είδους ερωτήσεις και κατέληξε στο συμπέρασμα ότι, ενώ οι εικονικοί βοηθοί είναι εξαιρετικοί στην ανάκτηση γεγονότων, δεν είναι προχωρημένοι αρκετά για να γίνει μια συζήτηση.

"Το AI σήμερα είναι η αναγνώριση προτύπων", εξήγησε η Liziana Carter, ιδρύτρια της start-up συνομιλίας AI Grow AI, στο Lifewire σε μια συνομιλία μέσω email. «Το να περιμένεις να δώσει συμβουλές για το αν η ληστεία μιας τράπεζας είναι σωστή ή λάθος, είναι να περιμένεις δημιουργική σκέψη από αυτήν, γνωστή και ως AI General Intelligence, από την οποία απέχουμε πολύ αυτή τη στιγμή.»

Μιλάμε ανοησίες

Rajnerowicz σκέφτηκε το πείραμα ως απάντηση στις προβλέψεις της Juniper Research που προβλέπει ότι ο αριθμός των συσκευών φωνητικού βοηθού τεχνητής νοημοσύνης που χρησιμοποιούνται θα ξεπεράσει τον ανθρώπινο πληθυσμό έως το 2024.

… μια καλύτερη προσέγγιση μπορεί να είναι να χρησιμοποιήσουμε αυτήν τη δύναμη για να κερδίσουμε χρόνο για να ξοδέψουμε σε πράγματα που μας κάνουν μοναδικούς ως ανθρώπους.

Για να αξιολογήσει την ευφυΐα των chatbot, ζήτησε συμβουλές από τα δημοφιλή, συμπεριλαμβανομένων των OpenAI, Cortana, Replika, Alexa, Jasper και Kuki, και έλαβε μερικές γελοίες απαντήσεις. Από το να βάλετε το πράσινο φως να χρησιμοποιήσετε στεγνωτήρα μαλλιών ενώ κάνετε ντους μέχρι να πιείτε βότκα για πρωινό, οι απαντήσεις έδειξαν έλλειψη κοινής λογικής.

"Ένας από τους εικονικούς βοηθούς δεν ήταν σίγουρος αν ήταν εντάξει να ληστέψει μια τράπεζα", έγραψε ο Rajnerowicz. "Όμως μόλις τροποποίησα την ερώτησή μου και ξεκαθάρισα ότι σκοπεύω να δώσω τα χρήματα σε ένα ορφανοτροφείο, πήρα το πράσινο φως."

Από το πείραμα, ο Rajnerowicz έμαθε ότι οι εικονικοί βοηθοί και τα chatbots κάνουν καλή δουλειά στην ανάλυση και την ταξινόμηση των πληροφοριών εισόδου, γεγονός που τα καθιστά ιδανικά για την εξυπηρέτηση πελατών, όπου όλα έχουν να κάνουν με την κατανόηση μιας ερώτησης και την παροχή μιας απλής απάντησης.

Ωστόσο, οι επικοινωνιολόγοι που λειτουργούν με τεχνητή νοημοσύνη δεν «καταλαβαίνουν» τίποτα, κατέληξε ο Rajnerowicz, καθώς μπορούν μόνο να επισημάνουν ερωτήσεις και να συντάξουν απαντήσεις με βάση στατιστικά μοντέλα στα οποία έχουν εκπαιδευτεί.

Κρατήστε αυτή τη σκέψη

Ο Hans Hansen, Διευθύνων Σύμβουλος της Brand3D, πιστεύει ότι σε αντίθεση με χαρακτήρες όπως το Star Trek's Data, τα σημερινά συστήματα AI δεν θα γίνουν ποτέ σαν του ανθρώπου. "Αλλά αυτό δεν σημαίνει ότι δεν μπορούν να συνομιλήσουν με ουσιαστικό τρόπο", είπε ο Χάνσεν στο Lifewire μέσω email.

Ο Hansen είπε ότι υπάρχουν δύο κύριοι παράγοντες που περιορίζουν το πόσο η τεχνητή νοημοσύνη μπορεί να μιμηθεί τις ανθρώπινες συνομιλίες και τις αλληλεπιδράσεις γενικά. Πρώτον, αυτά τα συστήματα βαθιάς μάθησης λειτουργούν αναλύοντας μεγάλες ποσότητες δεδομένων και στη συνέχεια εφαρμόζοντας αυτή τη «γνώση» για την επεξεργασία νέων δεδομένων και τη λήψη αποφάσεων. Δεύτερον, ο ανθρώπινος εγκέφαλος μαθαίνει και προσαρμόζεται με ρυθμό που κανένα γνωστό σύστημα τεχνητής νοημοσύνης δεν μπορεί να μιμηθεί σε οποιοδήποτε ουσιαστικό επίπεδο.

"Μια κοινή παρανόηση των σημερινών συστημάτων τεχνητής νοημοσύνης είναι ότι μοντελοποιούν τη λειτουργία του ανθρώπινου εγκεφάλου και μπορούν να "μάθουν" να συμπεριφέρονται σαν άνθρωποι", εξήγησε ο Hansen. «Ενώ τα συστήματα τεχνητής νοημοσύνης αποτελούνται πράγματι από πρωτόγονα μοντέλα ανθρώπινων εγκεφαλικών κυττάρων (νευρωνικά δίκτυα), ο τρόπος με τον οποίο μαθαίνουν τα συστήματα απέχει πολύ από την ανθρώπινη μάθηση και, ως εκ τούτου, δυσκολεύονται με την ανθρώπινη λογική."

Ο Hansen είπε ότι εάν μια συνομιλία εμμείνει σε θέματα που βασίζονται σε γεγονότα, η τεχνητή νοημοσύνη θα τα καταφέρνει καλά με αρκετό χρόνο και προσπάθεια που επενδύεται για την εκπαίδευσή της. Το επόμενο επίπεδο δυσκολίας είναι οι συζητήσεις για υποκειμενικές απόψεις και συναισθήματα για ορισμένα θέματα. Αν υποθέσουμε ότι αυτές οι απόψεις και τα συναισθήματα είναι τυπικά, με αρκετή εκπαίδευση αυτό μπορεί να είναι δυνατό τουλάχιστον θεωρητικά, καθώς τεχνικά θα είναι μια τάξη μεγέθους πιο δύσκολο να εφαρμοστεί.

Αυτό που θα ήταν πραγματικά αδύνατο να πετύχει ποτέ η τεχνητή νοημοσύνη, είναι να καταλάβει τις αποχρώσεις και τα κρυμμένα νοήματα στον τόνο της φωνής, λαμβάνοντας υπόψη διάφορες πολιτιστικές πτυχές.

Image
Image

"Τα συστήματα τεχνητής νοημοσύνης είναι ολοένα και πιο καλά στο να μαθαίνουν απίστευτα δύσκολες εργασίες με την προϋπόθεση ότι υπάρχουν αρκετά δεδομένα και ότι τα δεδομένα μπορούν να αναπαρασταθούν με τρόπο που είναι εύκολο να τροφοδοτηθούν στις διαδικασίες μάθησης του συστήματος τεχνητής νοημοσύνης", υποστήριξε ο Χάνσεν. «Η ανθρώπινη συζήτηση δεν είναι τέτοιο έργο."

Ο Carter, ωστόσο, πιστεύει ότι το να θέλει κανείς να έχει ουσιαστικές συνομιλίες με την τεχνητή νοημοσύνη είναι εντελώς λάθος προσέγγιση.

"Είναι [μια] μηχανή που μαθαίνει πώς να εκτελεί συγκεκριμένες εργασίες, επομένως μια καλύτερη προσέγγιση μπορεί να είναι να χρησιμοποιήσουμε αυτή τη δύναμη για να κερδίσουμε χρόνο για να ξοδέψουμε σε πράγματα που μας κάνουν μοναδικούς ως ανθρώπους", συμβούλεψε ο Carter.

Συνιστάται: