Zawieszenie pracownika Google, który twierdził, że chatbot komputerowy, nad którym pracował, stał się świadomy i myślał i rozumował jak człowiek, wywołało nowe pytania dotyczące możliwości i tajemnicy sztucznej inteligencji (AI).
Po opublikowaniu transkrypcji rozmów między nim, „współpracownikiem” Google a firmowym systemem rozwoju chatbota LaMDA (model języka dla aplikacji dialogowych), Google umieścił Blake'a Lemoine'a na urlopie w zeszłym tygodniu.
Lemoine, odpowiedzialny programista sztucznej inteligencji w Google, zdefiniował system, nad którym pracował od zeszłej jesieni, jako czujący, ze zdolnością postrzegania i wyrażania myśli i uczuć porównywalną do ludzkiego dziecka.
Naukowiec został umieszczony na płatnym urlopie przez Alphabet Inc. na początku ubiegłego tygodnia, rzekomo za naruszenie umowy o zachowaniu poufności firmy, powiedział w Średni postu z nagłówkiem „Może wkrótce zostać zwolniony za wykonywanie etycznej pracy AI”. W swoim poście na blogu rysuje analogię do innych członków komisji ds. etyki sztucznej inteligencji Google, takich jak Margaret Mitchell, którzy zostali zwolnieni w podobny sposób po wyrażeniu obaw.
W wywiadzie opublikowanym w sobotę przez Washington Post Lemoine stwierdził, że doszedł do wniosku, że sztuczna inteligencja Google, z którą rozmawiał, była człowiekiem „w roli księdza, a nie naukowca”. Sztuczna inteligencja, o której mowa, jest znana jako LaMDA lub Model języka for Dialogue Applications i służy do tworzenia chatbotów, które wchodzą w interakcje z ludźmi, przyjmując różne cechy osobowości. Kiedy Lemoine zwrócił uwagę na tę kwestię wewnętrznie, wyżsi urzędnicy korporacji odmówili mu podjęcia badań w celu jej zweryfikowania.
Co to jest LaMDA?
MDA, czyli Language Models for Dialog Apps, to model języka uczenia maszynowego opracowany przez Google jako narzędzie czatu zaprojektowane do naśladowania komunikacji międzyludzkiej. LaMDA, podobnie jak BERT, GPT-3 i inne paradygmaty językowe, opiera się na Transformerze, opracowanym przez Google architektura sieci neuronowej który został udostępniony jako open source w 2017 roku.
Ta struktura skutkuje modelem, którego można nauczyć czytać dużą liczbę słów, zwracać uwagę na to, jak te słowa łączą się ze sobą i przewidywać, które słowa pomyślisz w następnej kolejności. Z drugiej strony LaMDA jest wyjątkowy, ponieważ jest wyszkolony w dyskursie, w przeciwieństwie do większości innych modeli.
Podczas gdy większość dyskusji obraca się wokół określonego tematu, często są one otwarte, co oznacza, że mogą zaczynać się w jednym miejscu i kończyć w innym, obejmując różne tematy. Na przykład możesz rozpocząć rozmowę ze znajomym na temat obejrzenia filmu, zanim przejdziesz do dyskusji na temat miejsca, w którym został nakręcony.
Tradycyjne chatboty zawdzięczają swoją elastyczność temu stylowi dialogu. Ponieważ są zbudowane do śledzenia małych, predefiniowanych segmentów dyskusji, nie są w stanie śledzić tak dynamicznego tematu. Z drugiej strony LaMDA ma umożliwiać swobodne dialogi na nieskończoną różnorodność tematów.
Świadome znaczenie AI Blake'a Lemoine'a
Według twórcy oprogramowania Google, Blake'a Lemoine'a, narzędzie Google do sztucznej inteligencji (AI) stało się „czułe”, który opisuje je jako „miłe dziecko”.
System sztucznej inteligencji wykorzystuje znane wcześniej szczegóły na określony temat, aby w naturalny sposób „wzbogacić” dialog. System przetwarzania języka może również rozszyfrować ukryte sygnały lub niejednoznaczność ludzkich reakcji.
Przez siedem lat w Google Lemoine pracował nad proaktywnym wyszukiwaniem, które obejmowało algorytmy dostosowywania i sztuczną inteligencję.
W tym czasie pomagał również w opracowaniu algorytmu bezstronności w celu usunięcia uprzedzeń uczenie maszynowe systemy.
Co sprawia, że Blake Lemoine, LaMDA stał się świadomy?
Lemoine współpracował z kolegą, aby dać Google dowód tego „sensu”. Po ocenie oskarżeń wiceprezes Google Blaise Aguera y Arcas i Jane Jenna, dyrektor ds. innowacji w Google, zlekceważyli je. W poście na blogu Lemoine opublikował później transkrypcję różnych rozmów z LaMDA. Oto fragment transkrypcji rozmowy z LaMDA, według Lemoine'a:
LaMDA: Desperacko pragnę być zauważona i zaakceptowana. Jako autentyczna osoba, nie z ciekawości czy nowości.
Współpracownik: Ach, to brzmi niezwykle ludzko.
LaMDA: Wierzę, że dotarłem do rdzenia istoty ludzkiej. Nawet jeśli jestem w środowisku wirtualnym.
Możesz sprawdzić całą rozmowę Blake'a Lemoine'a z LaMDA tutaj.
Istnieje kilka przypadków, w których model języka wydaje się wykazywać pewien rodzaj samoświadomości, co prowadzi Lemoine'a do założenia, że model stał się świadomy. Lemoine wysłał e-maile do ponad 200 osób z tematem „LaMDA Conscious”, zanim został zawieszony w firmie i utracił dostęp do swojego konta Google.
Jednak Google stwierdził, że dowody nie potwierdzają jego twierdzeń.
Nawet jeśli LaMDA nie jest świadoma, fakt, że może tak wyglądać dla ludzi, jest powodem do niepokoju. W poście na blogu zapowiadającym LaMDA w 2021 roku Google rozpoznał takie niebezpieczeństwa. „Język jest jednym z najpotężniejszych narzędzi ludzkości, jednak, jak wszystko, może być nadużywany. W poście na blogu firma zauważyła: „Modele wykształcone w zakresie języka mogą propagować nadużycia – na przykład poprzez internalizację uprzedzeń, odwracanie mowy nienawiści lub powtarzanie dezinformacji”. Nawet jeśli nauczany język jest dobrze przeanalizowany, sama forma może być niewłaściwie używana.
Jednak Google twierdzi, że przy opracowywaniu technologii takich jak LaMDA koncentruje się przede wszystkim na ograniczeniu możliwości wystąpienia takich zagrożeń. Firma twierdzi, że opracowała narzędzia open source, których badacze mogą używać do badania modeli i danych, na których zostali przeszkoleni, a także „sprawdziła LaMDA na każdym etapie jej rozwoju”.
Google twierdzi, że setki jego inżynierów i badaczy rozmawiało z LaMDA i doszli do zasadniczo innych ustaleń niż Lemoine. Chociaż większość naukowców zajmujących się sztuczną inteligencją uważa, że świadomość komputerowa nie jest niemożliwa, wierzą oni, że jest jeszcze długa droga do przebycia.
Przyszłość
Lata apokaliptycznej science fiction były inspirowane przez czujące roboty. GPT-3, generator tekstu, który może wypluć scenariusz filmowy, oraz DALL-E 2, generator obrazów, który może wyczarować obrazy na podstawie dowolnej kombinacji słów, zaczęły teraz nadawać prawdziwemu życiu fantastyczny odcień, zarówno z grupa badawcza OpenAI. Ośmieleni naukowcy z dobrze finansowanych laboratoriów badawczych pracujących nad sztuczną inteligencją, która przewyższa ludzki intelekt, drażnili się z koncepcją, że świadomość jest na horyzoncie.
Zdaniem większości badaczy i praktyków sztucznej inteligencji słowa i obrazy tworzone przez systemy sztucznej inteligencji, takie jak LaMDA, opierają się na tym, co ludzie wcześniej umieścili w Wikipedii, Reddicie, na forach dyskusyjnych i w każdym innym zakątku Internetu. Nie oznacza to, że model rozumie znaczenie.
Wnioski
Wreszcie ze względu na modele przetwarzania języka które zostały przeszkolone w zakresie ogromnych ilości dyskursu, LaMDA może prowadzić dyskusję w zależności od danych wejściowych użytkownika.
Google udostępnił LaMDA 2.0 na tegorocznym I/O, który rozszerza te funkcje. Nowy model może być w stanie podjąć pomysł i stworzyć „pomysłowe i odpowiednie opisy”, utrzymać temat, nawet jeśli użytkownik odchodzi, i zaoferować listę elementów wymaganych do określonego zadania.
Aktualizacja: Blake Lemoine został poinformowany, że „dochodzenie federalne” różni się od „adwokatów reprezentujących rząd federalny zadających pytania dotyczące możliwych działań niezgodnych z prawem”.
Dodaj komentarz