AI có khả năng cải thiện hiệu quả trong các lĩnh vực khác nhau như kinh doanh và chăm sóc sức khỏe. Tuy nhiên, việc thiếu khả năng giải thích cản trở chúng ta tin tưởng vào việc sử dụng nó để ra quyết định.
Chúng ta có nên tin tưởng vào phán đoán của một thuật toán không?
Điều quan trọng là những người ra quyết định trong bất kỳ ngành nào phải hiểu những hạn chế và thành kiến tiềm ẩn của mô hình học máy. Để đảm bảo rằng các mô hình này đang hoạt động như dự định, con người phải có thể giải thích được kết quả đầu ra của bất kỳ hệ thống AI nào.
Trong bài viết này, chúng ta sẽ xem xét tầm quan trọng của khả năng giải thích trong AI. Chúng tôi sẽ cung cấp tổng quan ngắn gọn về các loại phương pháp được sử dụng để rút ra giải thích từ các mô hình học máy.
AI có thể giải thích là gì?
Có thể giải thích trí tuệ nhân tạo hoặc XAI đề cập đến các kỹ thuật và phương pháp được sử dụng để cho phép con người hiểu cách các mô hình học máy đến một đầu ra nhất định.
Nhiều người phổ biến thuật toán học máy hoạt động như thể nó là một "hộp đen". Trong học máy, thuật toán hộp đen tham khảo các mô hình ML nơi không thể xác minh cách một đầu vào nhất định dẫn đến một đầu ra cụ thể. Ngay cả nhà phát triển AI cũng sẽ không thể giải thích đầy đủ cách thức hoạt động của thuật toán.
Ví dụ: các thuật toán học sâu sử dụng mạng thần kinh để xác định các mẫu từ rất nhiều dữ liệu. Mặc dù các nhà nghiên cứu và phát triển AI hiểu cách mạng nơ-ron hoạt động từ quan điểm kỹ thuật, nhưng họ thậm chí không thể giải thích đầy đủ cách mạng nơ-ron tạo ra một kết quả cụ thể như thế nào.
Một số mạng nơ-ron xử lý hàng triệu tham số mà tất cả đều hoạt động đồng thời để trả về kết quả cuối cùng.
Trong các tình huống mà các quyết định quan trọng, việc thiếu khả năng giải thích có thể trở thành vấn đề.
Tại sao khả năng giải thích lại quan trọng
Giải thích cung cấp thông tin chi tiết về cách các mô hình đưa ra quyết định. Các doanh nghiệp có kế hoạch điều chỉnh AI để đưa ra quyết định sẽ phải xác định xem liệu AI đã sử dụng đúng đầu vào để đi đến quyết định tốt nhất hay chưa.
Mô hình không thể giải thích được là một vấn đề trong một số ngành công nghiệp. Ví dụ: nếu một công ty sử dụng thuật toán để đưa ra quyết định tuyển dụng, thì lợi ích tốt nhất của mọi người là phải minh bạch về cách thuật toán quyết định từ chối ứng viên.
Một lĩnh vực khác nơi học kĩ càng thuật toán đang được sử dụng thường xuyên hơn là trong chăm sóc sức khỏe. Trong trường hợp các thuật toán cố gắng phát hiện các dấu hiệu có thể có của bệnh ung thư, điều quan trọng là các bác sĩ phải hiểu cách mô hình đi đến một chẩn đoán cụ thể. Cần phải có một số mức độ dễ giải thích để các chuyên gia tận dụng hết lợi thế của AI và không làm theo nó một cách mù quáng
Tổng quan về các thuật toán AI có thể giải thích
Các thuật toán AI có thể giải thích được chia thành hai loại lớn: các mô hình tự giải thích được và các giải thích hậu học.
Các mô hình tự diễn giải
Các mô hình tự diễn giải là các thuật toán mà con người có thể trực tiếp đọc và giải thích. Trong trường hợp này, chính mô hình là lời giải thích.
Một số mô hình tự diễn giải phổ biến nhất bao gồm cây quyết định và mô hình hồi quy.
Ví dụ, chúng ta hãy xem xét một mô hình hồi quy tuyến tính dự đoán giá nhà. Hồi quy tuyến tính có nghĩa là với một số giá trị x, chúng ta sẽ có thể dự đoán giá trị mục tiêu của mình là y bằng cách áp dụng một hàm tuyến tính cụ thể f.
Giả sử rằng mô hình của chúng tôi sử dụng kích thước lô đất làm đầu vào chính để xác định giá nhà. Sử dụng hồi quy tuyến tính, chúng tôi có thể đưa ra hàm y = 5000 * x trong đó x là số lượng bộ vuông hoặc kích thước lô.
Mô hình này con người có thể đọc được và hoàn toàn minh bạch.
Giải thích sau khi học
Giải thích sau giờ học là một nhóm các thuật toán và kỹ thuật có thể được sử dụng để thêm khả năng giải thích cho các thuật toán khác.
Hầu hết các kỹ thuật giải thích hậu học không cần hiểu cách thức hoạt động của thuật toán. Người dùng chỉ cần xác định đầu vào và đầu ra kết quả của thuật toán đích.
Những giải thích này được chia thành hai loại: giải thích cục bộ và giải thích toàn cầu.
Giải thích cục bộ nhằm giải thích một tập hợp con các yếu tố đầu vào. Ví dụ: với một đầu ra cụ thể, một giải thích cục bộ sẽ có thể xác định các tham số nào góp phần đưa ra quyết định đó.
Các giải thích toàn cục nhằm tạo ra các giải thích hậu kỳ về toàn bộ thuật toán. Loại giải thích này thường khó thực hiện hơn. Các thuật toán rất phức tạp và có thể có vô số tham số có ý nghĩa trong việc đạt được kết quả cuối cùng.
Ví dụ về các thuật toán giải thích cục bộ
Trong số nhiều kỹ thuật được sử dụng để đạt được XAI, các thuật toán được sử dụng để giải thích cục bộ là điều mà hầu hết các nhà nghiên cứu tập trung vào.
Trong phần này, chúng ta sẽ xem xét một số thuật toán giải thích cục bộ phổ biến và cách hoạt động của từng thuật toán đó.
GIỚI HẠN
LIME (Người giải thích mô hình bất khả tri có thể diễn giải cục bộ) là một thuật toán có thể giải thích các dự đoán của bất kỳ thuật toán học máy nào.
Như tên của nó, LIME là mô hình bất khả tri. Điều này có nghĩa là LIME có thể hoạt động cho bất kỳ loại mô hình nào. Mô hình cũng có thể diễn giải cục bộ, nghĩa là chúng ta có thể giải thích mô hình bằng cách sử dụng kết quả cục bộ thay vì giải thích toàn bộ mô hình.
Ngay cả khi mô hình đang được giải thích là một hộp đen, LIME tạo ra một mô hình tuyến tính cục bộ xung quanh các điểm gần một vị trí nhất định.
LIMe cung cấp một mô hình tuyến tính gần đúng với mô hình trong vùng lân cận của một dự đoán nhưng không nhất thiết phải trên toàn cầu.
Bạn có thể tìm hiểu thêm về thuật toán này bằng cách truy cập kho lưu trữ mã nguồn mở này.
HÌNH DẠNG
Giải thích phụ gia Shapley (SHAP) là một phương pháp để giải thích các dự đoán riêng lẻ. Để hiểu cách SHAP hoạt động, chúng ta sẽ phải giải thích các giá trị Shapley là gì.
Giá trị Shapley là một khái niệm trong lý thuyết trò chơi liên quan đến việc gán một “giá trị” cho mỗi người chơi trong trò chơi. Điều này được phân phối sao cho giá trị được chỉ định cho mỗi người chơi dựa trên đóng góp của người chơi cho trò chơi.
Làm thế nào để chúng tôi áp dụng lý thuyết trò chơi đến học máy mô hình?
Giả sử rằng mỗi tính năng trong mô hình của chúng tôi là một “trình phát” và “trò chơi” là chức năng đưa ra dự đoán.
Phương pháp SHAP tạo ra một mô hình tuyến tính có trọng số gán các giá trị Shapley cho các đối tượng địa lý khác nhau. Các đối tượng địa lý có giá trị Shapley cao có ảnh hưởng lớn hơn đến kết quả của mô hình trong khi đối tượng địa lý có giá trị Shapley thấp có ảnh hưởng ít hơn.
Kết luận
Khả năng giải thích của AI rất quan trọng không chỉ để đảm bảo tính công bằng và trách nhiệm giải trình của các hệ thống AI mà còn để xây dựng niềm tin vào công nghệ AI nói chung.
Vẫn còn rất nhiều nghiên cứu được thực hiện trong lĩnh vực khả năng giải thích của AI, nhưng có một số cách tiếp cận đầy hứa hẹn có thể giúp chúng ta hiểu được các hệ thống AI hộp đen phức tạp đã được sử dụng rộng rãi ngày nay.
Với những nghiên cứu và phát triển sâu hơn, chúng tôi có thể hy vọng xây dựng các hệ thống AI minh bạch hơn và dễ hiểu hơn. Trong khi đó, các doanh nghiệp và chuyên gia trong các lĩnh vực như chăm sóc sức khỏe nên nhận thức được những hạn chế về khả năng giải thích của AI.
Bình luận