Ba năm trước, tôi đến thăm một triển lãm nghệ thuật khá thú vị. “Hồi ức về máy” của Refik Anadol đã thu hút sự quan tâm của tôi ngay từ đầu.
Anh là cái tên được nhiều người quan tâm đến sự giao thoa giữa nghệ thuật và AI. Nhưng đừng lo lắng, blog này không phải về nghệ thuật. Chúng ta sẽ đi sâu vào những “nhận thức” sâu sắc về AI.
Trong triển lãm này, Anadol đang thử nghiệm Hình ảnh thám hiểm không gian của NASA. Triển lãm được lấy cảm hứng từ ý tưởng rằng kính thiên văn có thể “mơ” bằng cách sử dụng kho lưu trữ hình ảnh của chúng, làm mờ đi rào cản giữa thực tế và trí tưởng tượng.
Bằng cách nghiên cứu mối quan hệ giữa dữ liệu, trí nhớ và lịch sử trên quy mô vũ trụ, Anadol yêu cầu chúng tôi xem xét tiềm năng của trí tuệ nhân tạo để quan sát và hiểu thế giới xung quanh chúng ta. Và ngay cả AI cũng có ước mơ của riêng mình…
Vậy tại sao điều này lại liên quan đến chúng ta?
Hãy xem xét điều này: giống như Anadol đã nghiên cứu khái niệm kính thiên văn mơ từ dữ liệu của họ, các hệ thống AI có loại giấc mơ riêng—hay đúng hơn là ảo giác—trong ngân hàng bộ nhớ kỹ thuật số của chúng.
Những ảo giác này, giống như những hình dung trong triển lãm của Anadol, có thể giúp chúng ta tìm hiểu thêm về dữ liệu, AI và các giới hạn của chúng.
Chính xác thì ảo giác AI là gì?
Khi một mô hình ngôn ngữ lớn, chẳng hạn như chatbot AI tổng quát, tạo ra kết quả đầu ra với các mẫu không tồn tại hoặc vô hình đối với người quan sát con người, chúng tôi gọi đây là “Ảo giác AI."
Những kết quả đầu ra này, khác với câu trả lời dự kiến dựa trên dữ liệu đầu vào được cung cấp cho AI, có thể hoàn toàn sai hoặc vô nghĩa.
Trong bối cảnh máy tính, thuật ngữ “ảo giác” có vẻ bất thường nhưng nó mô tả chính xác đặc điểm kỳ quái của những kết quả đầu ra không chính xác này. Ảo giác về AI được gây ra bởi một loạt các biến số, bao gồm trang bị quá mức, sai lệch trong dữ liệu huấn luyện và độ phức tạp của mô hình AI.
Để hiểu rõ hơn, điều này về mặt khái niệm tương tự như cách con người nhìn thấy các hình dạng trong đám mây hoặc khuôn mặt trên mặt trăng.
Một ví dụ:
Trong ví dụ này, tôi đã hỏi một câu hỏi rất dễ ChatGPT. Lẽ ra tôi phải nhận được câu trả lời như, “Tác giả của bộ sách Dune là Frank Herbert.”.
Lý do tại sao điều này xảy ra?
Mặc dù được xây dựng để viết nội dung mạch lạc và trôi chảy nhưng các mô hình ngôn ngữ lớn thực sự không thể hiểu được những gì chúng đang nói. Điều này rất quan trọng trong việc xác định độ tin cậy của nội dung do AI tạo ra.
Mặc dù những mô hình này có thể tạo ra những phản ứng bắt chước hành vi của con người, họ thiếu nhận thức theo ngữ cảnh và kỹ năng tư duy phản biện làm nền tảng cho trí thông minh thực sự.
Kết quả là, các kết quả đầu ra do AI tạo ra có nguy cơ bị sai lệch hoặc sai vì chúng thiên về các mẫu phù hợp hơn là độ chính xác thực tế.
Một số trường hợp ảo giác khác có thể là gì?
Thông tin sai lệch nguy hiểm: Giả sử một chatbot AI tổng hợp tạo ra bằng chứng và lời khai để buộc tội sai một nhân vật của công chúng về hành vi phạm tội. Thông tin sai lệch này có khả năng gây tổn hại đến danh tiếng của người đó và gây ra sự trả thù vô cớ.
Câu trả lời kỳ lạ hoặc đáng sợ: Để đưa ra một ví dụ hài hước, hãy hình dung một chatbot đưa ra câu hỏi về thời tiết cho người dùng và trả lời bằng dự báo cho biết trời sẽ mưa như chó và mèo, cùng với hình ảnh những hạt mưa trông giống chó và mèo. Dù buồn cười nhưng đây vẫn chỉ là “ảo giác”.
Sự không chính xác về mặt thực tế: Giả sử một chatbot dựa trên mô hình ngôn ngữ tuyên bố sai rằng Vạn Lý Trường Thành của Trung Quốc có thể được nhìn từ không gian mà không giải thích rằng nó chỉ hiển thị trong những điều kiện cụ thể. Mặc dù nhận xét này có vẻ hợp lý đối với một số người nhưng nó không chính xác và có thể khiến mọi người hiểu lầm về tầm nhìn của bức tường từ không gian.
Làm thế nào để bạn tránh ảo giác AI khi là người dùng?
Đưa ra lời nhắc rõ ràng
Bạn cần giao tiếp với các mô hình AI một cách rõ ràng.
Hãy suy nghĩ về mục tiêu của bạn và thiết kế lời nhắc trước khi viết.
Ví dụ: đưa ra những hướng dẫn cụ thể như “Giải thích cách hoạt động của Internet và viết một đoạn văn về tầm quan trọng của nó trong xã hội hiện đại” thay vì đặt ra một câu hỏi chung chung như “Hãy cho tôi biết về Internet”.
Tính rõ ràng giúp mô hình AI diễn giải ý định của bạn.
Ví dụ: Đặt những câu hỏi về AI như sau:
“Điện toán đám mây là gì và nó hoạt động như thế nào?”
“Giải thích tác động của sự trôi dạt dữ liệu đến hiệu suất của mô hình.”
“Thảo luận về tác động và tương lai tiềm năng của công nghệ VR đối với hoạt động kinh doanh CNTT.”
Nắm bắt sức mạnh của tấm gương
Việc cung cấp ví dụ trong lời nhắc của bạn sẽ giúp mô hình AI hiểu được ngữ cảnh và tạo ra câu trả lời chính xác. Cho dù bạn đang tìm kiếm thông tin chi tiết về lịch sử hay giải thích kỹ thuật, việc cung cấp ví dụ có thể giúp nâng cao độ chính xác của nội dung do AI tạo ra.
Ví dụ: bạn có thể nói, “Hãy đề cập đến những cuốn tiểu thuyết giả tưởng như Harry Potter”.
Chia nhỏ các nhiệm vụ phức tạp
Những lời nhắc phức tạp làm quá tải các thuật toán AI và chúng có thể dẫn đến những kết quả không liên quan. Để ngăn chặn điều này, hãy chia các hoạt động phức tạp thành những phần nhỏ hơn, dễ quản lý hơn. Bằng cách sắp xếp các lời nhắc một cách tuần tự, bạn cho phép AI tập trung vào từng thành phần một cách độc lập, từ đó đưa ra các câu trả lời hợp lý hơn.
Ví dụ, thay vì yêu cầu AI “giải thích quá trình tạo ra một mạng lưới thần kinh” trong một truy vấn duy nhất, hãy chia bài tập thành các giai đoạn riêng biệt như xác định vấn đề và thu thập dữ liệu.
Xác thực kết quả đầu ra và cung cấp phản hồi
Luôn kiểm tra kỹ kết quả do mô hình AI tạo ra, đặc biệt đối với các hoạt động quan trọng hoặc dựa trên thực tế. So sánh các câu trả lời với các nguồn đáng tin cậy và lưu ý bất kỳ sự khác biệt hoặc sai sót nào.
Cung cấp đầu vào cho hệ thống AI để nâng cao hiệu suất trong tương lai và giảm ảo giác.
Chiến lược dành cho nhà phát triển để tránh ảo giác về AI
Triển khai thế hệ tăng cường truy xuất (RAG).
Tích hợp các kỹ thuật tạo tăng cường truy xuất vào hệ thống AI để đưa ra câu trả lời dựa trên dữ kiện thực tế từ cơ sở dữ liệu đáng tin cậy.
Tạo tăng cường truy xuất (RAG) kết hợp việc tạo ngôn ngữ tự nhiên tiêu chuẩn với khả năng thu thập và kết hợp thông tin liên quan từ cơ sở kiến thức khổng lồ, dẫn đến đầu ra phong phú hơn theo ngữ cảnh.
Bằng cách hợp nhất nội dung do AI tạo với các nguồn dữ liệu đã được xác thực, bạn có thể cải thiện độ tin cậy và độ tin cậy của kết quả AI.
Xác thực và giám sát kết quả đầu ra AI liên tục
Thiết lập các quy trình xác thực nghiêm ngặt để xác minh tính chính xác và nhất quán của kết quả đầu ra AI trong thời gian thực. Giám sát hiệu suất AI một cách chăm chú, tìm kiếm những ảo giác hoặc sai lầm tiềm ẩn, đồng thời lặp lại quá trình đào tạo mô hình và tối ưu hóa nhanh chóng để tăng độ tin cậy theo thời gian.
Ví dụ: sử dụng quy trình xác thực tự động để kiểm tra tính chính xác thực tế của nội dung do AI tạo và nêu bật các trường hợp ảo giác có thể xảy ra để đánh giá thủ công.
Kiểm tra sự trôi dạt dữ liệu
Trôi dạt dữ liệu là hiện tượng trong đó các tính năng thống kê của dữ liệu được sử dụng để huấn luyện mô hình AI thay đổi theo thời gian. Nếu mô hình AI đáp ứng dữ liệu khác biệt đáng kể so với dữ liệu huấn luyện của nó trong quá trình suy luận, nó có thể cung cấp kết quả sai hoặc phi logic, dẫn đến ảo giác.
Ví dụ: nếu một mô hình AI được đào tạo dựa trên dữ liệu trong quá khứ không còn phù hợp hoặc không còn biểu thị cho môi trường hiện tại, nó có thể đưa ra kết luận hoặc dự đoán không chính xác.
Do đó, việc giám sát và giải quyết tình trạng trôi dạt dữ liệu là rất quan trọng để đảm bảo hiệu suất và độ tin cậy của hệ thống AI, đồng thời giảm khả năng xảy ra ảo giác.
Kết luận
Theo IBM Data, ảo giác AI xảy ra trong khoảng 3% đến 10% câu trả lời từ các mô hình AI.
Vì vậy, bằng cách này hay cách khác, có thể bạn cũng sẽ quan sát được chúng. Tôi tin rằng đây là một chủ đề cực kỳ thú vị vì nó là một lời nhắc nhở hấp dẫn về con đường không ngừng hướng tới việc nâng cao khả năng của AI.
Chúng ta có thể quan sát và thử nghiệm độ tin cậy của AI, sự phức tạp của quá trình xử lý dữ liệu và tương tác giữa con người với AI.
Bình luận