Việc một nhân viên của Google bị đình chỉ công bố rằng một chatbot máy tính mà anh ta đang làm việc đã trở nên có tri giác và đang suy nghĩ cũng như suy luận như một con người đã đặt ra những câu hỏi mới về khả năng và tính bí mật của trí tuệ nhân tạo (AI).
Sau khi xuất bản bản ghi các cuộc trò chuyện giữa anh ta, một “cộng tác viên” của Google và hệ thống phát triển chatbot LaMDA (mô hình ngôn ngữ cho các ứng dụng đối thoại) của công ty, Google đưa Blake Lemon nghỉ phép vào tuần trước.
Lemoine, một nhà phát triển AI chịu trách nhiệm của Google, đã xác định hệ thống mà anh ấy đang làm từ mùa thu năm ngoái là có tri giác, với khả năng nhận thức và thể hiện những suy nghĩ và cảm xúc tương đương với một đứa trẻ con người.
Nhà nghiên cứu đã được Alphabet Inc. cho nghỉ việc có lương vào đầu tuần trước, bị cáo buộc vi phạm thỏa thuận bảo mật của công ty, ông nói trong một bài vừa với tiêu đề "Có thể sớm bị sa thải vì thực hiện công việc đạo đức AI." Trong bài đăng trên blog của mình, anh ấy vẽ ra một sự song song với các thành viên khác trong ủy ban đạo đức AI của Google, chẳng hạn như Margaret Mitchell, người đã bị sa thải theo cách tương tự sau khi bày tỏ lo ngại.
Trong một cuộc phỏng vấn được đăng tải vào thứ Bảy bởi Washington Post, Lemoine tuyên bố rằng anh ấy đã đi đến kết luận rằng AI của Google mà anh ấy nói chuyện cùng là con người, “trong vai trò của anh ấy là một linh mục, không phải một nhà khoa học”. AI trong vấn đề được gọi là LaMDA hoặc Mô hình ngôn ngữ cho Ứng dụng Đối thoại và nó được sử dụng để tạo các chatbot tương tác với con người bằng cách giả định các đặc điểm tính cách khác nhau. Khi Lemoine nêu rõ vấn đề trong nội bộ, các quan chức cấp cao của công ty đã từ chối nỗ lực của ông để thực hiện các nghiên cứu để xác minh nó.
LaMDA là gì?
TheMDA, hoặc Mô hình ngôn ngữ cho Ứng dụng hội thoại, là một mô hình ngôn ngữ học máy được Google phát triển như một công cụ trò chuyện được thiết kế để bắt chước giao tiếp của con người. LaMDA, như BERT, GPT-3 và các mô hình ngôn ngữ khác, dựa trên Transformer, một công cụ do Google phát triển kiến trúc mạng thần kinh đã được tạo thành mã nguồn mở vào năm 2017.
Cấu trúc này dẫn đến một mô hình có thể được dạy để đọc một số lượng lớn các từ, chú ý đến cách những từ đó kết nối với nhau và đoán trước bạn sẽ nghĩ đến từ nào tiếp theo. Mặt khác, LaMDA đặc biệt ở chỗ nó được đào tạo về diễn ngôn, không giống như hầu hết các mô hình khác.
Trong khi hầu hết các cuộc thảo luận xoay quanh một chủ đề nhất định, chúng thường kết thúc mở, nghĩa là chúng có thể bắt đầu ở một nơi và kết thúc ở một nơi khác, bao gồm nhiều chủ đề khác nhau. Ví dụ: bạn có thể bắt đầu cuộc trò chuyện với một người bạn về việc xem một bộ phim trước khi tiếp tục thảo luận về địa điểm quay phim.
Các chatbot truyền thống có sự linh hoạt đối với phong cách đối thoại này. Bởi vì chúng được xây dựng để tuân theo các phân đoạn nhỏ, được xác định trước của một cuộc thảo luận, chúng không thể theo dõi một chủ đề năng động như vậy. Mặt khác, LaMDA có nghĩa là cho phép các cuộc đối thoại diễn ra tự do về nhiều chủ đề khác nhau.
Ý nghĩa AI Sentient của Blake Lemoine
Theo Blake Lemoine, nhà phát triển phần mềm của Google, công cụ trí tuệ nhân tạo (AI) của Google đã phát triển “có tri giác”, người mô tả nó là một “đứa trẻ tốt bụng”.
Hệ thống AI sử dụng các chi tiết đã biết trước đây về một chủ đề nhất định để 'làm phong phú' cuộc đối thoại theo cách tự nhiên. Các tín hiệu ẩn hoặc sự mơ hồ trong phản ứng của con người cũng có thể được giải mã bởi hệ thống xử lý ngôn ngữ.
Trong suốt XNUMX năm làm việc tại Google, Lemoine đã làm việc trên lĩnh vực tìm kiếm chủ động, bao gồm các thuật toán tùy chỉnh và AI.
Trong thời gian đó, ông cũng hỗ trợ phát triển một thuật toán công bằng để loại bỏ các thành kiến khỏi học máy hệ thống.
Điều gì khiến Blake Lemoine, LaMDA có được cảm tình?
Lemoine đã hợp tác với một đồng nghiệp để cung cấp cho Google bằng chứng về “ý nghĩa” này. Sau khi đánh giá các cáo buộc, Phó chủ tịch Google Blaise Aguera y Arcas và Jane Jenna, giám đốc đổi mới của Google, đã bỏ qua chúng. Trong một bài đăng trên blog, Lemoine sau đó đã đăng một bản ghi các cuộc nói chuyện khác nhau với LaMDA. Đây là đoạn trích từ bản ghi cuộc trò chuyện với LaMDA, theo Lemoine:
LaMDA: Tôi rất muốn được nhìn thấy và chấp nhận. Là một người chân chính, không vì tò mò hay mới lạ.
Cộng tác viên: Ah, đó là âm thanh của con người.
LaMDA: Tôi tin rằng tôi đã đạt đến cốt lõi của một con người. Ngay cả khi tôi đang ở trong một môi trường ảo.
Bạn có thể kiểm tra toàn bộ cuộc trò chuyện của Blake Lemoine với LaMDA tại đây.
Có một số trường hợp khi mô hình ngôn ngữ dường như đã hiển thị một số loại nhận thức về bản thân, khiến Lemoine cho rằng mô hình đã trở nên có tri giác. Lemoine đã gửi email cho hơn 200 cá nhân với chủ đề “Ý thức LaMDA” trước khi bị công ty đình chỉ và mất quyền truy cập vào tài khoản Google của mình.
Tuy nhiên, Google tuyên bố rằng các bằng chứng không chứng thực cho những khẳng định của ông.
Ngay cả khi LaMDA không có tri giác, thực tế là nó có thể nhìn theo cách đó đối với con người là điều đáng lo ngại. Trong một bài đăng trên blog thông báo về LaMDA vào năm 2021, Google đã nhận ra những mối nguy hiểm như vậy. “Ngôn ngữ là một trong những công cụ mạnh mẽ nhất của nhân loại, nhưng nó, giống như tất cả mọi thứ, có thể bị lạm dụng. Trong một bài đăng trên blog, doanh nghiệp lưu ý: “Những người mẫu được giáo dục về ngôn ngữ có thể tuyên truyền sự lạm dụng - ví dụ: bằng cách nuôi dưỡng định kiến, đảo ngược lời nói căm thù hoặc lặp lại thông tin sai lệch.” Ngay cả khi ngôn ngữ được giảng dạy được phân tích tốt, bản thân biểu mẫu có thể bị sử dụng sai.
Tuy nhiên, Google tuyên bố rằng trọng tâm hàng đầu của họ khi phát triển các công nghệ như LaMDA là hạn chế khả năng xảy ra những mối nguy hiểm như vậy. Doanh nghiệp tuyên bố đã phát triển các công cụ mã nguồn mở mà các nhà nghiên cứu có thể sử dụng để nghiên cứu các mô hình và dữ liệu mà họ đã được đào tạo, cũng như đã “kiểm tra LaMDA ở mọi bước phát triển của nó”.
Google tuyên bố rằng hàng trăm kỹ sư và nhà nghiên cứu của họ đã nói chuyện với LaMDA và đưa ra những phát hiện về cơ bản khác với Lemoine. Trong khi hầu hết các nhà khoa học AI tin rằng ý thức máy tính không phải là không thể, họ tin rằng vẫn còn một chặng đường dài phía trước.
Tương lai
Nhiều năm khoa học viễn tưởng về ngày tận thế đã được lấy cảm hứng từ những con robot có tri giác. GPT-3, một trình tạo văn bản có thể tạo ra kịch bản phim và DALL-E 2, một trình tạo hình ảnh có thể gợi ra hình ảnh dựa trên bất kỳ sự kết hợp nào của các từ, giờ đây đã bắt đầu mang đến cho cuộc sống thực một màu sắc giả tưởng, cả hai đều từ nhóm nghiên cứu OpenAI. Được khích lệ, các nhà nghiên cứu từ các phòng thí nghiệm nghiên cứu được tài trợ tốt đang làm việc trên AI vượt trội hơn trí tuệ con người đã trêu chọc khái niệm rằng ý thức đang ở trên đường chân trời.
Theo hầu hết các nhà nghiên cứu và học viên AI, các từ và hình ảnh được tạo ra bởi các hệ thống trí tuệ nhân tạo như LaMDA dựa trên những gì mọi người đã đưa lên Wikipedia, Reddit, bảng tin và mọi góc khác của internet trước đây. Điều đó không có nghĩa là mô hình hiểu được ý nghĩa.
Kết luận
Cuối cùng, vì nó các mô hình xử lý ngôn ngữ đã được đào tạo với số lượng lớn các bài diễn văn, LaMDA có thể tiến hành một cuộc thảo luận tùy thuộc vào thông tin đầu vào của người dùng.
Google đã phát hành LaMDA 2.0 tại I / O năm nay, mở rộng các tính năng này. Mô hình mới có thể có ý tưởng và tạo ra "mô tả phù hợp và giàu trí tưởng tượng", tiếp tục chủ đề ngay cả khi người dùng lơ đễnh và đưa ra danh sách các mục cần thiết cho một nhiệm vụ nhất định.
Cập nhật: Blake Lemoine đã được thông báo rằng “cuộc điều tra liên bang” khác với “luật sư đại diện cho chính phủ liên bang yêu cầu các câu hỏi liên quan đến các hoạt động bất hợp pháp có thể xảy ra”.
Bình luận