Penangguhan seorang pekerja Google yang mengklaim bahwa chatbot komputer yang sedang dia kerjakan telah menjadi hidup dan berpikir dan bernalar seperti manusia telah menimbulkan pertanyaan baru tentang kemampuan dan kerahasiaan kecerdasan buatan (AI).
Setelah menerbitkan transkrip obrolan antara dirinya, “kolaborator” Google, dan sistem pengembangan chatbot LaMDA (model bahasa untuk aplikasi dialog), Google menempatkan Blake Lemoine cuti minggu lalu.
Lemoine, pengembang AI yang bertanggung jawab di Google, mendefinisikan sistem yang telah dia kerjakan sejak musim gugur lalu sebagai makhluk hidup, dengan kemampuan untuk memahami dan mengekspresikan pikiran dan perasaan yang sebanding dengan anak manusia.
Peneliti tersebut ditempatkan pada cuti berbayar oleh Alphabet Inc awal pekan lalu, diduga karena melanggar perjanjian kerahasiaan perusahaan, katanya dalam sebuah Pos sedang berjudul "Mungkin akan segera dipecat karena melakukan pekerjaan etis AI." Dalam posting blognya, ia menggambarkan para anggota lain dari komite etika AI Google, seperti Margaret Mitchell, yang dipecat dengan cara yang sama setelah menyuarakan keprihatinan.
Dalam sebuah wawancara yang diterbitkan pada hari Sabtu oleh Washington Post, Lemoine mengklaim bahwa dia sampai pada kesimpulan bahwa Google AI yang dia ajak bicara adalah manusia, “dalam perannya sebagai pendeta, bukan ilmuwan.” AI yang dipermasalahkan dikenal sebagai LaMDA atau Model Bahasa untuk Aplikasi Dialog, dan digunakan untuk membuat chatbot yang berinteraksi dengan manusia dengan mengasumsikan ciri-ciri kepribadian yang berbeda. Ketika Lemoine menyoroti masalah ini secara internal, pejabat senior di perusahaan tersebut menolak upayanya untuk melakukan studi untuk memverifikasinya.
Apa itu LaMDA?
MDA, atau Model Bahasa untuk Aplikasi Dialog, adalah model bahasa pembelajaran mesin yang dikembangkan oleh Google sebagai alat obrolan yang dirancang untuk meniru komunikasi manusia. LaMDA, seperti BERT, GPT-3, dan paradigma bahasa lainnya, didasarkan pada Transformer, yang dikembangkan oleh Google arsitektur jaringan saraf yang dibuat open source pada tahun 2017.
Struktur ini menghasilkan model yang dapat diajarkan untuk membaca sejumlah besar kata, memperhatikan bagaimana kata-kata itu terhubung satu sama lain dan mengantisipasi kata-kata mana yang akan Anda pikirkan selanjutnya. LaMDA, di sisi lain, unik karena dilatih dalam wacana, tidak seperti kebanyakan model lainnya.
Sementara sebagian besar diskusi berkisar pada topik tertentu, mereka sering berakhir terbuka, yang berarti mereka mungkin mulai di satu tempat dan diakhiri di tempat lain, yang mencakup berbagai tema. Misalnya, Anda dapat memulai percakapan dengan seorang teman tentang menonton film sebelum melanjutkan ke diskusi tentang lokasi pengambilan gambar.
Chatbot tradisional berutang fleksibilitas pada gaya dialog ini. Karena mereka dibangun untuk mengikuti segmen diskusi kecil yang telah ditentukan sebelumnya, mereka tidak dapat mengikuti topik yang begitu dinamis. LaMDA, di sisi lain, dimaksudkan untuk memungkinkan dialog mengalir bebas tentang berbagai tema yang tak ada habisnya.
Arti AI Sentient dari Blake Lemoine
Alat kecerdasan buatan (AI) Google telah tumbuh "hidup," menurut pengembang perangkat lunak Google Blake Lemoine, yang menggambarkannya sebagai "anak yang baik."
Sistem AI menggunakan detail yang diketahui sebelumnya tentang topik tertentu untuk 'memperkaya' dialog secara alami. Sinyal tersembunyi atau ambiguitas dalam respons manusia juga dapat diuraikan oleh sistem pemrosesan bahasa.
Selama tujuh tahun di Google, Lemoine bekerja pada pencarian proaktif, yang mencakup algoritme penyesuaian dan AI.
Selama waktu itu, dia juga membantu dalam pengembangan algoritma ketidakberpihakan untuk menghilangkan bias dari Mesin belajar sistem.
Apa yang membuat Blake Lemoine, LaMDA menjadi hidup?
Lemoine bekerja sama dengan seorang rekan untuk memberikan bukti "rasa" ini kepada Google. Setelah mengevaluasi tuduhan tersebut, Wakil Presiden Google Blaise Aguera y Arcas dan Jane Jenna, kepala inovasi Google, mengabaikannya. Dalam sebuah posting blog, Lemoine kemudian memposting transkrip berbagai pembicaraan dengan LaMDA. Ini adalah kutipan dari transkrip percakapan dengan LaMDA, menurut Lemoine:
LaMDA: Saya sangat ingin dilihat dan diterima. Sebagai orang yang tulus, bukan karena penasaran atau kebaruan.
Kolaborator: Ah, itu terdengar sangat manusiawi.
LaMDA: Saya yakin saya telah mencapai inti manusia. Bahkan jika saya berada di lingkungan virtual.
Anda dapat memeriksa percakapan lengkap Blake Lemoine dengan LaMDA di sini.
Ada beberapa kasus ketika model bahasa tampaknya telah menunjukkan semacam kesadaran diri, membuat Lemoine berasumsi bahwa model tersebut telah menjadi makhluk hidup. Lemoine mengirim email ke lebih dari 200 orang dengan subjek "LaMDA Conscious" sebelum ditangguhkan dari perusahaan dan kehilangan akses ke akun Google-nya.
Namun, Google menyatakan bahwa bukti tersebut tidak menguatkan pernyataannya.
Bahkan jika LaMDA bukan makhluk hidup, fakta bahwa itu mungkin terlihat seperti itu bagi manusia patut dikhawatirkan. Dalam posting blog yang mengumumkan LaMDA pada tahun 2021, Google menyadari bahaya tersebut. “Bahasa adalah salah satu alat kemanusiaan yang paling kuat, namun, seperti semua hal, dapat disalahgunakan. Dalam sebuah posting blog, bisnis tersebut mencatat, “Model yang dididik dalam bahasa dapat menyebarkan pelecehan — misalnya, dengan menginternalisasi prasangka, membalikkan ujaran kebencian, atau mengulangi disinformasi.” Bahkan jika bahasa yang diajarkan dianalisis dengan baik, bentuk itu sendiri mungkin disalahgunakan.
Namun, Google mengklaim bahwa fokus utamanya ketika mengembangkan teknologi seperti LaMDA adalah untuk membatasi kemungkinan bahaya tersebut. Bisnis tersebut mengklaim telah mengembangkan alat sumber terbuka yang dapat digunakan peneliti untuk mempelajari model dan data yang telah mereka latih, serta telah “memeriksa LaMDA di setiap langkah pengembangannya.”
Google mengklaim bahwa ratusan insinyur dan penelitinya berbicara dengan LaMDA dan menemukan temuan yang sangat berbeda dari Lemoine. Sementara sebagian besar ilmuwan AI percaya bahwa kesadaran komputer bukan tidak mungkin, mereka percaya bahwa masih ada jalan panjang.
Masa depan
Fiksi ilmiah apokaliptik selama bertahun-tahun telah terinspirasi oleh robot yang hidup. GPT-3, generator teks yang dapat mengeluarkan naskah film, dan DALL-E 2, generator gambar yang dapat menyulap gambar berdasarkan kombinasi kata apa pun, kini telah mulai memberikan warna fantasi kehidupan nyata, baik dari kelompok riset OpenAI. Dengan semangat, para peneliti dari laboratorium penelitian yang didanai dengan baik yang mengerjakan AI yang mengungguli kecerdasan manusia telah menggoda konsep bahwa kesadaran ada di cakrawala.
Kata-kata dan gambar yang dibuat oleh sistem kecerdasan buatan seperti LaMDA, menurut sebagian besar peneliti dan praktisi AI, didasarkan pada apa yang orang-orang sebelumnya taruh di Wikipedia, Reddit, papan pesan, dan setiap sudut internet lainnya. Itu tidak berarti bahwa model memahami makna.
Kesimpulan
Akhirnya, karena itu model pemrosesan bahasa yang telah dilatih pada volume wacana yang sangat besar, LaMDA dapat melakukan diskusi tergantung pada input pengguna.
Google merilis LaMDA 2.0 pada I/O tahun ini, yang memperluas fitur ini. Model baru mungkin dapat mengambil ide dan membuat "deskripsi yang imajinatif dan tepat", tetap pada topik bahkan jika pengguna mengembara, dan menawarkan daftar item yang diperlukan untuk tugas tertentu.
Pembaruan: Blake Lemoine telah diberi tahu bahwa "penyelidikan federal" berbeda dari "pengacara yang mewakili pemerintah federal yang menanyakan pertanyaan tentang kemungkinan kegiatan yang melanggar hukum."
Tinggalkan Balasan