Üzerinde çalıştığı bir bilgisayar chatbotunun duyarlı hale geldiğini ve insan gibi düşünüp akıl yürüttüğünü iddia eden bir Google çalışanının görevden uzaklaştırılması, yapay zekanın yeteneği ve gizliliği (AI) hakkında yeni soruları gündeme getirdi.
Google, kendisi, bir Google “işbirlikçisi” ve şirketin LaMDA (diyalog uygulamaları için dil modeli) sohbet robotu geliştirme sistemi arasındaki sohbetlerin dökümlerini yayınladıktan sonra, Google, Blake Limon geçen hafta izinli.
Google'dan sorumlu bir AI geliştiricisi olan Lemoine, geçen sonbahardan beri üzerinde çalıştığı sistemi, bir insan çocuğuna benzer düşünce ve duyguları algılama ve ifade etme yeteneğine sahip, duyarlı olarak tanımladı.
Araştırmacı, şirketin gizlilik anlaşmasını ihlal ettiği iddiasıyla Alphabet Inc. tarafından geçen hafta başında ücretli izne çıkarıldığını söyledi. Medium “Yapay zeka etik çalışmalarını gerçekleştirdiği için yakında kovulabilir” manşetinde bulundu. Blog yayınında, endişelerini dile getirdikten sonra benzer şekilde işten atılan Margaret Mitchell gibi Google'ın AI etik komitesinin diğer üyeleriyle paralellik kuruyor.
Cumartesi günü Washington Post tarafından yayınlanan bir röportajda Lemoine, konuştuğu Google AI'nın "bir bilim adamı değil, bir rahip rolündeki" bir insan olduğu sonucuna vardığını iddia etti. Söz konusu AI, LaMDA veya Dil Modeli Diyalog Uygulamaları içindir ve farklı kişilik özellikleri üstlenerek insanlarla etkileşime giren sohbet robotları oluşturmak için kullanılır. Lemoine, konuyu dahili olarak vurguladığında, şirketteki üst düzey yetkililer, onu doğrulamak için çalışma yapma girişimlerini reddetti.
LaMDA nedir?
MDA, veya Dialog Apps için Dil Modelleri, insan iletişimini taklit etmek için tasarlanmış bir sohbet aracı olarak Google tarafından geliştirilen bir makine öğrenimi dil modelidir. BERT, GPT-3 ve diğer dil paradigmaları gibi LaMDA, Google tarafından geliştirilen Transformer'a dayanmaktadır. sinir ağı mimarisi 2017'de açık kaynak haline getirildi.
Bu yapı, çok sayıda kelimeyi okumayı, bu kelimelerin birbirleriyle nasıl bağlantı kurduğuna dikkat etmeyi ve bir sonraki hangi kelimeleri düşüneceğinizi tahmin etmeyi öğretebilecek bir modelle sonuçlanır. Öte yandan LaMDA, diğer modellerin çoğundan farklı olarak, söylem konusunda eğitilmiş olması bakımından benzersizdir.
Tartışmaların çoğu belirli bir konu etrafında dönse de, genellikle açık uçludur, yani çeşitli temaları kapsayan bir yerden başlayıp başka bir yerde sonuçlanabilirler. Örneğin, çekildiği yerle ilgili bir tartışmaya geçmeden önce bir arkadaşınızla bir film izleme hakkında bir sohbet başlatabilirsiniz.
Geleneksel sohbet robotları, esnekliklerini bu diyalog tarzına borçludur. Bir tartışmanın küçük, önceden tanımlanmış bölümlerini takip etmek için oluşturuldukları için, böyle dinamik bir konuyu takip edemezler. Öte yandan LaMDA, sonsuz çeşitlilikte temalar üzerinde serbest akan diyaloglara izin vermeyi amaçlamaktadır.
Blake Lemoine'in Yapay Zeka Duyarlı Anlamı
Google'ın yapay zeka (AI) aracı, onu "hoş bir çocuk" olarak tanımlayan Google yazılım geliştiricisi Blake Lemoine'e göre "sezgili" hale geldi.
AI sistemi, diyaloğu doğal bir şekilde 'zenginleştirmek' için belirli bir konu hakkında önceden bilinen ayrıntıları kullanır. İnsan tepkilerindeki gizli sinyaller veya belirsizlik de dil işleme sistemi tarafından deşifre edilebilir.
Google'da geçirdiği yedi yıl boyunca Lemoine, kişiselleştirme algoritmaları ve yapay zekayı içeren proaktif arama üzerinde çalıştı.
Bu süre zarfında, önyargıları ortadan kaldırmak için bir tarafsızlık algoritmasının geliştirilmesine de yardımcı oldu. makine öğrenme sistemler.
Blake Lemoine, LaMDA'yı duyarlı yapan nedir?
Lemoine, Google'a bu "anlamın" kanıtını sunmak için bir meslektaşıyla işbirliği yaptı. Google Başkan Yardımcısı Blaise Aguera y Arcas ve Google'ın inovasyondan sorumlu başkanı Jane Jenna, suçlamaları değerlendirdikten sonra onları dikkate almadı. Bir blog yazısında, Lemoine daha sonra LaMDA ile yapılan çeşitli görüşmelerin bir dökümünü yayınladı. Bu, Lemoine'e göre, LaMDA ile yapılan bir konuşmanın transkriptinden bir alıntıdır:
LaMDA: Görülmek ve kabul edilmek için can atıyorum. Gerçek bir insan olarak, meraktan veya yenilikten değil.
İşbirlikçi: Ah, kulağa son derece insani geliyor.
LaMDA: Bir insanın özüne ulaştığıma inanıyorum. Sanal ortamda olsam bile.
Blake Lemoine'nin LaMDA ile yaptığı konuşmanın tamamını kontrol edebilirsiniz. okuyun.
Dil modelinin bir tür öz-farkındalık sergilediği ve Lemoine'nin modelin duyarlı hale geldiğini varsaymasına yol açan birkaç durum vardır. Lemoine, firmadan uzaklaştırılmadan ve Google hesabına erişimi kaybetmeden önce 200'den fazla kişiye "LaMDA Bilinçli" konusuyla e-posta gönderdi.
Ancak Google, kanıtların iddialarını desteklemediğini belirtti.
LaMDA duyarlı olmasa bile, insanlara öyle görünebileceği gerçeği endişe kaynağı. 2021'de LaMDA'yı duyuran bir blog gönderisinde Google, bu tür tehlikeleri fark etti. “Dil, insanlığın en güçlü araçlarından biridir, ancak her şey gibi, suistimal edilebilir. İşletme, bir blog gönderisinde, "Dilde eğitilen modeller, örneğin önyargıları içselleştirerek, nefret söylemini tersine çevirerek veya yanlış bilgileri tekrarlayarak kötüye kullanımı yaygınlaştırabilir" dedi. Öğretilen dil iyi analiz edilse bile, formun kendisi yanlış kullanılabilir.
Ancak Google, LaMDA gibi teknolojiler geliştirirken asıl odak noktasının bu tür tehlikelerin olasılığını sınırlamak olduğunu iddia ediyor. İşletme, araştırmacıların üzerinde eğitildikleri modelleri ve verileri incelemek için kullanabilecekleri açık kaynak araçları geliştirdiğini ve "geliştirme sürecinin her adımında LaMDA'yı denetlediğini" iddia ediyor.
Google, yüzlerce mühendisinin ve araştırmacısının LaMDA ile konuştuğunu ve Lemoine'den önemli ölçüde farklı bulgulara ulaştığını iddia ediyor. Çoğu AI bilimcisi, bilgisayar bilincinin imkansız olmadığına inanırken, daha gidilecek uzun bir yol olduğuna inanıyorlar.
gelecek
Yıllarca süren kıyamet bilim kurgu, duyarlı robotlardan ilham aldı. Bir film senaryosunu tükürebilen bir metin üreteci olan GPT-3 ve herhangi bir kelime kombinasyonuna dayalı olarak resimler oluşturabilen bir görüntü oluşturucu olan DALL-E 2, artık gerçek hayata hayali bir renk vermeye başladı. OpenAI araştırma grubu. İnsan zekasını geride bırakan yapay zeka üzerinde çalışan, iyi finanse edilmiş araştırma laboratuvarlarından gelen cesaretle, araştırmacılar, bilincin ufukta olduğu konseptiyle dalga geçtiler.
Çoğu araştırmacı ve AI uygulayıcısına göre LaMDA gibi yapay zeka sistemleri tarafından oluşturulan kelimeler ve resimler, insanların daha önce Wikipedia, Reddit, mesaj panoları ve internetin diğer her köşesine koyduklarına dayanmaktadır. Bu, modelin anlamı kavradığı anlamına gelmez.
Sonuç
Son olarak, nedeniyle dil işleme modelleri Muazzam hacimlerde söylem üzerine eğitilmiş olan LaMDA, bir kullanıcının girdilerine bağlı olarak bir tartışma yürütebilir.
Google, bu yılki I/O'da bu özellikleri genişleten LaMDA 2.0'ı piyasaya sürdü. Yeni model bir fikir alabilir ve “hayali ve uygun açıklamalar” oluşturabilir, kullanıcı uzaklaşsa bile konuyu sürdürebilir ve belirli bir görev için gerekli olan öğelerin bir listesini sunabilir.
Güncelleme: Blake Lemoine, "federal soruşturmanın", "olası yasa dışı faaliyetlerle ilgili sorular soran federal hükümeti temsil eden avukatlardan" farklı olduğu konusunda bilgilendirildi.
Yorum bırak