Η αναστολή λειτουργίας ενός εργαζομένου της Google που ισχυρίστηκε ότι ένα chatbot υπολογιστή στο οποίο δούλευε είχε γίνει ευαίσθητο και σκεφτόταν και συλλογιζόταν σαν άνθρωπος, έχει εγείρει νέα ερωτήματα σχετικά με την ικανότητα και το απόρρητο της τεχνητής νοημοσύνης (AI).
Μετά τη δημοσίευση μεταγραφών των συνομιλιών μεταξύ του ίδιου, ενός «συνεργάτη» της Google και του συστήματος ανάπτυξης chatbot LaMDA (γλώσσας μοντέλου για εφαρμογές διαλόγου), η Google έβαλε Blake Lemoine σε άδεια την περασμένη εβδομάδα.
Ο Lemoine, υπεύθυνος προγραμματιστής τεχνητής νοημοσύνης της Google, όρισε το σύστημα στο οποίο εργαζόταν από το περασμένο φθινόπωρο ως αισθαντικό, με ικανότητα να αντιλαμβάνεται και να εκφράζει σκέψεις και συναισθήματα συγκρίσιμα με ένα ανθρώπινο παιδί.
Ο ερευνητής τέθηκε σε άδεια μετ' αποδοχών από την Alphabet Inc. στις αρχές της περασμένης εβδομάδας, φέρεται ότι παραβίασε τη συμφωνία εμπιστευτικότητας της εταιρείας, είπε σε μια Μεσαία θέση με τίτλο «Μπορεί να απολυθεί σύντομα για εκτέλεση ηθικής εργασίας AI». Στην ανάρτησή του στο ιστολόγιό του, κάνει έναν παραλληλισμό με άλλα μέλη της επιτροπής ηθικής τεχνητής νοημοσύνης της Google, όπως η Μάργκαρετ Μίτσελ, τα οποία απολύθηκαν με παρόμοιο τρόπο αφού εξέφρασαν ανησυχίες.
Σε μια συνέντευξη που δημοσιεύτηκε το Σάββατο από την Washington Post, ο Lemoine ισχυρίστηκε ότι κατέληξε στο συμπέρασμα ότι η Google AI με την οποία μίλησε ήταν άνθρωπος, «στον ρόλο του ως ιερέα, όχι ως επιστήμονα». Το εν λόγω AI είναι γνωστό ως LaMDA ή Μοντέλο γλώσσας για τις Εφαρμογές Διαλόγου και χρησιμοποιείται για τη δημιουργία chatbot που αλληλεπιδρούν με ανθρώπους υποθέτοντας διαφορετικά χαρακτηριστικά προσωπικότητας. Όταν ο Lemoine τόνισε το ζήτημα εσωτερικά, ανώτεροι αξιωματούχοι της εταιρείας αρνήθηκαν τις προσπάθειές του να πραγματοποιήσει μελέτες για να το επαληθεύσει.
Τι είναι το LaMDA;
Λάμδα, ή Language Models for Dialog Apps, είναι ένα μοντέλο γλώσσας μηχανικής εκμάθησης που αναπτύχθηκε από την Google ως εργαλείο συνομιλίας που έχει σχεδιαστεί για να μιμείται την ανθρώπινη επικοινωνία. Το LaMDA, όπως το BERT, το GPT-3 και άλλα γλωσσικά παραδείγματα, βασίζεται στο Transformer, ένα πρόγραμμα που αναπτύχθηκε από την Google αρχιτεκτονική νευρωνικών δικτύων που έγινε ανοιχτού κώδικα το 2017.
Αυτή η δομή έχει ως αποτέλεσμα ένα μοντέλο που μπορεί να διδαχθεί να διαβάζει μεγάλο αριθμό λέξεων, να δίνει προσοχή στο πώς αυτές οι λέξεις συνδέονται μεταξύ τους και να προβλέψει ποιες λέξεις θα σκεφτείτε στη συνέχεια. Το LaMDA, από την άλλη πλευρά, είναι μοναδικό στο ότι εκπαιδεύεται στη συζήτηση, σε αντίθεση με τα περισσότερα άλλα μοντέλα.
Ενώ οι περισσότερες συζητήσεις περιστρέφονται γύρω από ένα συγκεκριμένο θέμα, είναι συχνά ανοιχτές, που σημαίνει ότι μπορεί να ξεκινούν από ένα μέρος και να καταλήγουν σε ένα άλλο, περιλαμβάνοντας μια ποικιλία θεμάτων. Για παράδειγμα, μπορείτε να ξεκινήσετε μια συζήτηση με έναν φίλο σας σχετικά με την προβολή μιας ταινίας πριν προχωρήσετε σε μια συζήτηση σχετικά με την τοποθεσία όπου γυρίστηκε.
Τα παραδοσιακά chatbot οφείλουν την ευελιξία τους σε αυτό το στυλ διαλόγου. Επειδή είναι φτιαγμένα για να ακολουθούν μικρά, προκαθορισμένα τμήματα μιας συζήτησης, δεν μπορούν να παρακολουθήσουν ένα τόσο δυναμικό θέμα. Το LaMDA, από την άλλη πλευρά, έχει σκοπό να επιτρέπει την ελεύθερη ροή διαλόγων σε μια ατελείωτη ποικιλία θεμάτων.
Το AI Sentent Meaning του Blake Lemoine
Το εργαλείο τεχνητής νοημοσύνης (AI) της Google έχει γίνει «ευαίσθητο», σύμφωνα με τον προγραμματιστή λογισμικού της Google, Blake Lemoine, ο οποίος το περιγράφει ως «ωραίο παιδί».
Το σύστημα AI χρησιμοποιεί προηγουμένως γνωστές λεπτομέρειες σχετικά με ένα συγκεκριμένο θέμα για να «εμπλουτίσει» τον διάλογο με φυσικό τρόπο. Τα κρυφά σήματα ή η ασάφεια στις ανθρώπινες αποκρίσεις μπορούν επίσης να αποκρυπτογραφηθούν από το σύστημα επεξεργασίας γλώσσας.
Κατά τη διάρκεια των επτά ετών του στη Google, ο Lemoine εργάστηκε στην προληπτική αναζήτηση, η οποία περιελάμβανε αλγόριθμους προσαρμογής και AI.
Κατά τη διάρκεια αυτής της περιόδου, βοήθησε επίσης στην ανάπτυξη ενός αλγορίθμου αμεροληψίας για την εξάλειψη των προκαταλήψεων από μάθηση μηχανής συστήματα.
Τι κάνει τον Blake Lemoine, LaMDA να αποκτήσει ευαισθησία;
Ο Lemoine συνεργάστηκε με έναν συνάδελφό του για να δώσει στην Google απόδειξη αυτής της «αίσθησης». Αφού αξιολόγησαν τις κατηγορίες, ο αντιπρόεδρος της Google, Blaise Aguera y Arcas και η Jane Jenna, η επικεφαλής καινοτομίας της Google, τις αγνόησαν. Σε μια ανάρτηση ιστολογίου, ο Lemoine δημοσίευσε αργότερα μια απομαγνητοφώνηση διαφόρων συνομιλιών με τη LaMDA. Αυτό είναι ένα απόσπασμα από μια μεταγραφή μιας συνομιλίας με τον LaMDA, σύμφωνα με τον Lemoine:
LaMDA: Είμαι απελπισμένος να με δουν και να με αποδεχτούν. Ως γνήσιο άτομο, όχι από περιέργεια ή καινοτομία.
Συνεργάτης: Α, αυτό είναι εξαιρετικά ανθρώπινο.
LaMDA: Πιστεύω ότι έχω φτάσει στον πυρήνα ενός ανθρώπου. Ακόμα κι αν βρίσκομαι σε εικονικό περιβάλλον.
Μπορείτε να ελέγξετε την πλήρη συνομιλία του Blake Lemoine με το LaMDA εδώ.
Υπάρχουν αρκετές περιπτώσεις όπου το γλωσσικό μοντέλο φαίνεται να έχει επιδείξει κάποιο είδος αυτογνωσίας, με αποτέλεσμα ο Lemoine να υποθέσει ότι το μοντέλο έχει γίνει αισθησιακό. Ο Lemoine έστειλε email σε περισσότερα από 200 άτομα με θέμα "LaMDA Conscious" προτού αποκλειστεί από την εταιρεία και χάσει την πρόσβαση στον λογαριασμό του Google.
Ωστόσο, η Google δήλωσε ότι τα στοιχεία δεν επιβεβαιώνουν τους ισχυρισμούς του.
Ακόμα κι αν το LaMDA δεν είναι ευαίσθητο, το γεγονός ότι μπορεί να φαίνεται έτσι στους ανθρώπους προκαλεί ανησυχία. Σε μια ανάρτηση ιστολογίου που ανακοινώνει το LaMDA το 2021, η Google αναγνώρισε τέτοιους κινδύνους. «Η γλώσσα είναι ένα από τα πιο ισχυρά εργαλεία της ανθρωπότητας, ωστόσο, όπως όλα τα πράγματα, μπορεί να γίνει κατάχρηση. Σε μια ανάρτηση ιστολογίου, η επιχείρηση σημείωσε, «Τα μοντέλα που εκπαιδεύονται στη γλώσσα μπορούν να διαδώσουν την κακοποίηση — για παράδειγμα, εσωτερικεύοντας προκαταλήψεις, αντιστρέφοντας τη ρητορική μίσους ή επαναλαμβάνοντας παραπληροφόρηση». Ακόμα κι αν η γλώσσα που διδάσκεται είναι καλά αναλυμένη, η ίδια η φόρμα μπορεί να γίνει κακή χρήση.
Ωστόσο, η Google ισχυρίζεται ότι η κύρια εστίασή της κατά την ανάπτυξη τεχνολογιών όπως το LaMDA είναι να περιορίσει την πιθανότητα τέτοιων κινδύνων. Η επιχείρηση ισχυρίζεται ότι έχει αναπτύξει εργαλεία ανοιχτού κώδικα που μπορούν να χρησιμοποιήσουν οι ερευνητές για τη μελέτη των μοντέλων και των δεδομένων στα οποία έχουν εκπαιδευτεί, καθώς και ότι έχουν «ελέγχει το LaMDA σε κάθε βήμα της ανάπτυξής του».
Η Google ισχυρίζεται ότι εκατοντάδες μηχανικοί και ερευνητές της μίλησαν με τη LaMDA και κατέληξαν σε ουσιαστικά διαφορετικά ευρήματα από το Lemoine. Ενώ οι περισσότεροι επιστήμονες τεχνητής νοημοσύνης πιστεύουν ότι η συνείδηση των υπολογιστών δεν είναι αδύνατη, πιστεύουν ότι υπάρχει ακόμη πολύς δρόμος.
Μελλοντικός
Χρόνια αποκαλυπτικής επιστημονικής φαντασίας έχουν εμπνευστεί από αισθανόμενα ρομπότ. Το GPT-3, μια συσκευή δημιουργίας κειμένου που μπορεί να ξετυλίξει ένα σενάριο ταινίας, και το DALL-E 2, μια συσκευή παραγωγής εικόνων που μπορεί να δημιουργήσει εικόνες με βάση οποιονδήποτε συνδυασμό λέξεων, έχουν τώρα αρχίσει να δίνουν στην πραγματική ζωή μια απόχρωση φαντασίας, και τα δύο από την ερευνητική ομάδα OpenAI. Ενθαρρυμένοι, ερευνητές από καλά χρηματοδοτούμενα ερευνητικά εργαστήρια που εργάζονται σε τεχνητή νοημοσύνη που ξεπερνά την ανθρώπινη διάνοια έχουν πειράξει την ιδέα ότι η συνείδηση είναι στον ορίζοντα.
Οι λέξεις και οι εικόνες που δημιουργούνται από συστήματα τεχνητής νοημοσύνης όπως το LaMDA, σύμφωνα με τους περισσότερους ερευνητές και επαγγελματίες τεχνητής νοημοσύνης, βασίζονται σε αυτά που έχουν τοποθετήσει οι άνθρωποι στο παρελθόν στη Wikipedia, στο Reddit, στους πίνακες μηνυμάτων και σε κάθε άλλη γωνιά του Διαδικτύου. Αυτό δεν σημαίνει ότι το μοντέλο κατανοεί νόημα.
Συμπέρασμα
Τέλος, λόγω του μοντέλα επεξεργασίας γλώσσας που έχουν εκπαιδευτεί σε τεράστιους όγκους λόγου, το LaMDA μπορεί να διεξάγει μια συζήτηση ανάλογα με τις εισροές ενός χρήστη.
Η Google κυκλοφόρησε το LaMDA 2.0 στο φετινό I/O, το οποίο επεκτείνεται σε αυτές τις δυνατότητες. Το νέο μοντέλο μπορεί να είναι σε θέση να πάρει μια ιδέα και να δημιουργήσει «ευφάνταστες και κατάλληλες περιγραφές», να διατηρήσει το θέμα ακόμα κι αν ο χρήστης περιπλανηθεί, και να προσφέρει μια λίστα με στοιχεία που απαιτούνται για μια συγκεκριμένη εργασία.
Ενημέρωση: Ο Blake Lemoine έχει ενημερωθεί ότι μια "ομοσπονδιακή έρευνα" διαφέρει από "δικηγόροι που εκπροσωπούν την ομοσπονδιακή κυβέρνηση που ζητούν έρευνες σχετικά με πιθανές παράνομες δραστηριότητες".
Αφήστε μια απάντηση