Πριν από τρία χρόνια, επισκέφτηκα μια αρκετά ενδιαφέρουσα έκθεση τέχνης. Το “Machine Memoirs” του Refik Anadol μου κέντρισε το ενδιαφέρον από την αρχή.
Είναι ένα δημοφιλές όνομα σε όσους ενδιαφέρονται για τη διασταύρωση της τέχνης και της τεχνητής νοημοσύνης. Αλλά μην ανησυχείτε, αυτό το blog δεν έχει να κάνει με την τέχνη. Θα εμβαθύνουμε στις βαθιές «αντιλήψεις» της τεχνητής νοημοσύνης.
Σε αυτή την έκθεση, το Anadol πειραματιζόταν Εικόνες εξερεύνησης του διαστήματος της NASA. Η έκθεση εμπνεύστηκε από την ιδέα ότι τα τηλεσκόπια μπορούσαν να «ονειρεύονται» χρησιμοποιώντας τα οπτικά τους αρχεία, θολώνοντας τα εμπόδια μεταξύ γεγονότος και φαντασίας.
Διερευνώντας τις σχέσεις μεταξύ δεδομένων, μνήμης και ιστορίας σε κοσμική κλίμακα, το Anadol μας ζητούσε να εξετάσουμε τις δυνατότητες τεχνητή νοημοσύνη να παρατηρήσουμε και να κατανοήσουμε τον κόσμο γύρω μας. Και ακόμη και η τεχνητή νοημοσύνη να έχει τα δικά της όνειρα…
Λοιπόν, γιατί αυτό είναι σχετικό με εμάς;
Σκεφτείτε το εξής: όσο το Anadol ερεύνησε την έννοια των τηλεσκοπίων που ονειρεύονται από τα δεδομένα τους, τα συστήματα τεχνητής νοημοσύνης έχουν το δικό τους είδος ονείρου -ή μάλλον, παραισθήσεις- μέσα στις ψηφιακές τράπεζες μνήμης τους.
Αυτές οι παραισθήσεις, όπως οι απεικονίσεις στην έκθεση του Anadol, μπορούν να μας βοηθήσουν να μάθουμε περισσότερα για τα δεδομένα, την τεχνητή νοημοσύνη και τα όριά τους.
Τι ακριβώς είναι οι παραισθήσεις AI;
Όταν ένα μοντέλο μεγάλης γλώσσας, όπως ένα γενετικό chatbot τεχνητής νοημοσύνης, παράγει αποτελέσματα με μοτίβα που είτε είναι ανύπαρκτα είτε αόρατα στους ανθρώπινους παρατηρητές, τα ονομάζουμε "Παραισθήσεις AI."
Αυτές οι έξοδοι, οι οποίες διαφέρουν από την αναμενόμενη απάντηση με βάση την είσοδο που δίνεται στο AI, μπορεί να είναι εντελώς λανθασμένες ή παράλογες.
Στο πλαίσιο των υπολογιστών, ο όρος "ψευδαίσθηση" μπορεί να φαίνεται ασυνήθιστος, αλλά περιγράφει με ακρίβεια τον παράξενο χαρακτήρα αυτών των εσφαλμένων εξόδων. Οι ψευδαισθήσεις με τεχνητή νοημοσύνη προκαλούνται από μια σειρά μεταβλητών, συμπεριλαμβανομένης της υπερβολικής προσαρμογής, των προκαταλήψεων στα δεδομένα εκπαίδευσης και της πολυπλοκότητας του μοντέλου τεχνητής νοημοσύνης.
Για να καταλάβουμε καλύτερα, αυτό είναι εννοιολογικά παρόμοιο με το πώς οι άνθρωποι βλέπουν σχήματα σε σύννεφα ή πρόσωπα στο φεγγάρι.
Ενα παράδειγμα:
Σε αυτό το παράδειγμα, έκανα μια πολύ εύκολη ερώτηση ChatGPT. Έπρεπε να λάβω μια απάντηση όπως, "Ο συγγραφέας της σειράς βιβλίων Dune είναι ο Frank Herbert".
Γιατί συμβαίνει αυτό;
Παρά το γεγονός ότι έχουν κατασκευαστεί για να γράφουν περιεχόμενο που είναι συνεκτικό και ρευστό, τα μεγάλα γλωσσικά μοντέλα στην πραγματικότητα δεν μπορούν να κατανοήσουν τι λένε. Αυτό είναι πολύ κρίσιμο για τον προσδιορισμό της αξιοπιστίας του περιεχομένου που δημιουργείται από AI.
Ενώ αυτά τα μοντέλα μπορούν να δημιουργήσουν αντιδράσεις που μιμούνται την ανθρώπινη συμπεριφορά, στερούνται της επίγνωσης των συμφραζομένων και των δεξιοτήτων κριτικής σκέψης που στηρίζουν την πραγματική νοημοσύνη.
Ως αποτέλεσμα, τα αποτελέσματα που δημιουργούνται από την τεχνητή νοημοσύνη διατρέχουν τον κίνδυνο να είναι παραπλανητικά ή λανθασμένα, καθώς ευνοούν την αντιστοίχιση μοτίβων έναντι της πραγματικής ορθότητας.
Ποιες θα μπορούσαν να είναι κάποιες άλλες περιπτώσεις παραισθήσεων;
Επικίνδυνη παραπληροφόρηση: Ας υποθέσουμε ότι ένα γενεσιουργό chatbot AI κατασκευάζει στοιχεία και μαρτυρίες για να κατηγορήσει ψευδώς ένα δημόσιο πρόσωπο για εγκληματική συμπεριφορά. Αυτές οι παραπλανητικές πληροφορίες έχουν τη δυνατότητα να βλάψουν τη φήμη του ατόμου και να προκαλέσουν αδικαιολόγητα αντίποινα.
Περίεργες ή ανατριχιαστικές απαντήσεις: Για να δώσετε ένα χιουμοριστικό παράδειγμα, απεικονίστε ένα chatbot να δίνει σε έναν χρήστη μια ερώτηση για τον καιρό και να απαντά με μια πρόβλεψη που λέει ότι θα βρέξει γάτες και σκύλους, μαζί με εικόνες με σταγόνες βροχής που μοιάζουν με γάτες και σκύλους. Παρόλο που είναι αστείοι, αυτό θα ήταν ακόμα μια «παραίσθηση».
Πραγματικές ανακρίβειες: Ας υποθέσουμε ότι ένα chatbot που βασίζεται σε μοντέλο γλώσσας δηλώνει ψευδώς ότι το Σινικό Τείχος της Κίνας μπορεί να προβληθεί από το διάστημα χωρίς να εξηγήσει ότι είναι ορατό μόνο υπό συγκεκριμένες συνθήκες. Αν και η παρατήρηση μπορεί να φαίνεται εύλογη σε ορισμένους, είναι ανακριβής και μπορεί να παραπλανήσει τους ανθρώπους σχετικά με τη θέα του τοίχου από το διάστημα.
Πώς αποφεύγετε τις ψευδαισθήσεις AI ως χρήστης;
Κάντε ρητές προτροπές
Πρέπει να επικοινωνείτε ρητά με μοντέλα AI.
Σκεφτείτε τους στόχους σας και σχεδιάστε τις προτροπές σας πριν γράψετε.
Για παράδειγμα, δώστε συγκεκριμένες οδηγίες όπως «Εξηγήστε πώς λειτουργεί το Διαδίκτυο και γράψτε μια παράγραφο για τη σημασία του στη σύγχρονη κοινωνία» αντί να κάνετε μια γενική ερώτηση όπως «Πείτε μου για το Διαδίκτυο».
Το Explicity βοηθά το μοντέλο AI να ερμηνεύσει την πρόθεσή σας.
Παράδειγμα: Κάντε τις ερωτήσεις AI όπως αυτές:
"Τι είναι το cloud computing και πώς λειτουργεί;"
"Εξηγήστε τον αντίκτυπο της μετατόπισης δεδομένων στην απόδοση του μοντέλου."
«Συζητήστε τον αντίκτυπο και το πιθανό μέλλον της τεχνολογίας VR στην επιχείρηση πληροφορικής».
Αγκαλιάστε τη Δύναμη του Παραδείγματος
Η παροχή παραδειγμάτων στις προτροπές σας βοηθά τα μοντέλα τεχνητής νοημοσύνης να κατανοήσουν το πλαίσιο και να δημιουργήσουν ακριβείς απαντήσεις. Είτε αναζητάτε ιστορικές πληροφορίες είτε τεχνικές επεξηγήσεις, η παροχή παραδειγμάτων μπορεί να συμβάλει στη βελτίωση της ακρίβειας του περιεχομένου που δημιουργείται από AI.
Για παράδειγμα, μπορείτε να πείτε, «Αναφέρετε μυθιστορήματα φαντασίας όπως ο Χάρι Πότερ».
Ανάλυση σύνθετων εργασιών
Τα πολύπλοκα μηνύματα υπερφορτώνουν τους αλγόριθμους τεχνητής νοημοσύνης και μπορεί να οδηγήσουν σε άσχετα αποτελέσματα. Για να το αποτρέψετε αυτό, χωρίστε τις σύνθετες δραστηριότητες σε μικρότερα, πιο διαχειρίσιμα κομμάτια. Οργανώνοντας διαδοχικά τις προτροπές σας, επιτρέπετε στο AI να εστιάζει σε κάθε στοιχείο ανεξάρτητα, με αποτέλεσμα πιο λογικές απαντήσεις.
Για παράδειγμα, αντί να ζητάτε από την τεχνητή νοημοσύνη να «εξηγήσει τη διαδικασία δημιουργίας ενός νευρικό σύστημα" σε ένα μόνο ερώτημα, χωρίστε την ανάθεση σε διακριτές φάσεις, όπως ο ορισμός του προβλήματος και η συλλογή δεδομένων.
Επικυρώστε τα αποτελέσματα και παρέχετε σχόλια
Να ελέγχετε πάντα τα αποτελέσματα που παράγονται από μοντέλα τεχνητής νοημοσύνης, ιδιαίτερα για δραστηριότητες που βασίζονται σε γεγονότα ή κρίσιμες δραστηριότητες. Συγκρίνετε τις απαντήσεις σε αξιόπιστες πηγές και σημειώστε τυχόν διαφορές ή σφάλματα.
Παρέχετε στοιχεία στο σύστημα AI για να βελτιώσετε τις μελλοντικές επιδόσεις και να μειώσετε τις παραισθήσεις.
Στρατηγικές για προγραμματιστές για να αποφύγουν τις ψευδαισθήσεις AI
Εφαρμογή ανάκτησης-επαυξημένης γενιάς (RAG).
Ενσωματώστε τεχνικές επαυξημένης παραγωγής ανάκτησης σε συστήματα τεχνητής νοημοσύνης για να βασίσετε τις απαντήσεις σε πραγματικά γεγονότα από αξιόπιστες βάσεις δεδομένων.
Η επαυξημένη παραγωγή ανάκτησης (RAG) συνδυάζει τη δημιουργία τυπικής φυσικής γλώσσας με την ικανότητα απόκτησης και ενσωμάτωσης σχετικών πληροφοριών από μια τεράστια βάση γνώσεων, με αποτέλεσμα πιο πλούσια αποτελέσματα με βάση τα συμφραζόμενα.
Με τη συγχώνευση περιεχομένου που δημιουργείται από AI με επικυρωμένες πηγές δεδομένων, μπορείτε να βελτιώσετε την αξιοπιστία και την αξιοπιστία των αποτελεσμάτων AI.
Συνεχής επικύρωση και παρακολούθηση των εξόδων AI
Ρυθμίστε αυστηρές διαδικασίες επικύρωσης για να επαληθεύσετε την ορθότητα και τη συνέπεια των εξόδων AI σε πραγματικό χρόνο. Παρακολουθήστε προσεκτικά την απόδοση της τεχνητής νοημοσύνης, αναζητήστε πιθανές παραισθήσεις ή λάθη και επαναλάβετε την εκπαίδευση μοντέλων και την άμεση βελτιστοποίηση για να αυξήσετε την αξιοπιστία με την πάροδο του χρόνου.
Για παράδειγμα, χρησιμοποιήστε αυτοματοποιημένες ρουτίνες επικύρωσης για να ελέγξετε το περιεχόμενο που δημιουργείται από AI για πραγματική ορθότητα και να επισημάνετε περιπτώσεις πιθανών παραισθήσεων για μη αυτόματη αξιολόγηση.
Ελέγξτε για μετατοπίσεις δεδομένων
Η μετατόπιση δεδομένων είναι ένα φαινόμενο στο οποίο τα στατιστικά χαρακτηριστικά των δεδομένων που χρησιμοποιούνται για την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης ποικίλλουν με το χρόνο. Εάν το μοντέλο AI πληροί δεδομένα που διαφέρουν σημαντικά από τα δεδομένα εκπαίδευσής του κατά τη διάρκεια της εξαγωγής συμπερασμάτων, μπορεί να παράσχει ψευδή ή παράλογα αποτελέσματα, με αποτέλεσμα παραισθήσεις.
Για παράδειγμα, εάν ένα μοντέλο τεχνητής νοημοσύνης έχει εκπαιδευτεί σε δεδομένα του παρελθόντος που δεν είναι πλέον σχετικά ή ενδεικτικά του τρέχοντος περιβάλλοντος, μπορεί να κάνει εσφαλμένα συμπεράσματα ή προβλέψεις.
Ως αποτέλεσμα, η παρακολούθηση και η επίλυση των παρεκκλίσεων δεδομένων είναι κρίσιμης σημασίας για τη διασφάλιση της απόδοσης και της αξιοπιστίας του συστήματος AI, ενώ παράλληλα μειώνεται η πιθανότητα παραισθήσεων.
Συμπέρασμα
Σύμφωνα με τα δεδομένα της IBM, οι παραισθήσεις με τεχνητή νοημοσύνη εμφανίζονται σε περίπου 3% έως 10% των απαντήσεων από μοντέλα τεχνητής νοημοσύνης.
Έτσι, με τον ένα ή τον άλλο τρόπο, μάλλον θα τα παρατηρήσετε κι εσείς. Πιστεύω ότι αυτό είναι ένα απίστευτα ενδιαφέρον θέμα γιατί είναι μια συναρπαστική υπενθύμιση του συνεχούς δρόμου προς την ενίσχυση των δυνατοτήτων της τεχνητής νοημοσύνης.
Παρατηρούμε και πειραματιζόμαστε με την αξιοπιστία του AI, τις περιπλοκές της επεξεργασίας δεδομένων και τις αλληλεπιδράσεις ανθρώπου-AI.
Αφήστε μια απάντηση