Làm thế nào để chúng tôi đảm bảo rằng chúng tôi sử dụng AI một cách có trách nhiệm?
Những tiến bộ trong học máy cho thấy rằng các mô hình có thể nhanh chóng mở rộng quy mô và tác động đến một phần lớn xã hội.
Các thuật toán kiểm soát nguồn cấp tin tức trên điện thoại của mọi người. Các chính phủ và tập đoàn đang bắt đầu sử dụng AI để đưa ra các quyết định dựa trên dữ liệu.
Khi AI ngày càng ăn sâu vào cách thế giới vận hành, làm cách nào để chúng ta đảm bảo rằng AI đang hoạt động công bằng?
Trong bài viết này, chúng ta sẽ xem xét những thách thức đạo đức của việc sử dụng AI và xem chúng ta có thể làm gì để đảm bảo việc sử dụng AI có trách nhiệm.
AI đạo đức là gì?
Đạo đức AI đề cập đến trí thông minh nhân tạo tuân thủ một số nguyên tắc đạo đức nhất định.
Nói cách khác, đó là một cách để các cá nhân và tổ chức làm việc với AI một cách có trách nhiệm.
Trong những năm gần đây, các tập đoàn bắt đầu tuân thủ luật bảo mật dữ liệu sau khi bằng chứng về việc lạm dụng và vi phạm được đưa ra ánh sáng. Tương tự, các hướng dẫn về AI có đạo đức được khuyến nghị để đảm bảo rằng AI không ảnh hưởng tiêu cực đến xã hội.
Ví dụ, một số loại AI hoạt động theo cách thiên vị hoặc duy trì các thành kiến đã tồn tại. Hãy xem xét một thuật toán giúp nhà tuyển dụng sắp xếp thông qua hàng nghìn hồ sơ. Nếu thuật toán được đào tạo trên tập dữ liệu với nhân viên chủ yếu là nam hoặc da trắng, thì có thể thuật toán sẽ ưu tiên những ứng viên thuộc các loại đó.
Thiết lập các nguyên tắc cho AI có đạo đức
Chúng tôi đã nghĩ đến việc thiết lập một bộ quy tắc để áp đặt trí tuệ nhân tạo trong nhiều thập kỷ.
Ngay cả trong những năm 1940, khi những máy tính mạnh nhất chỉ có thể thực hiện các phép tính khoa học chuyên biệt nhất, các nhà văn khoa học viễn tưởng đã cân nhắc về ý tưởng điều khiển robot thông minh.
Isaac Asimov nổi tiếng đã đặt ra Ba định luật về người máy, mà ông đề xuất đã được đưa vào lập trình robot trong các truyện ngắn của mình như một tính năng an toàn.
Những luật này đã trở thành nền tảng cho nhiều câu chuyện khoa học viễn tưởng trong tương lai và thậm chí còn cung cấp thông tin cho các nghiên cứu thực tế về đạo đức của AI.
Trong nghiên cứu đương đại, các nhà nghiên cứu AI đang xem xét các nguồn có cơ sở hơn để thiết lập danh sách các nguyên tắc cho AI có đạo đức.
Vì AI cuối cùng sẽ ảnh hưởng đến cuộc sống của con người, chúng ta phải có hiểu biết cơ bản về những gì chúng ta nên và không nên làm.
Báo cáo Belmont
Để có điểm tham khảo, các nhà nghiên cứu đạo đức học xem Báo cáo Belmont như một hướng dẫn. Các Báo cáo Belmont là một tài liệu được xuất bản bởi Viện Y tế Quốc gia Hoa Kỳ vào năm 1979. Các hành động tàn bạo y sinh được thực hiện trong Thế chiến 2 đã dẫn đến việc thúc đẩy việc lập pháp luật các hướng dẫn đạo đức cho các nhà nghiên cứu hành nghề y.
Dưới đây là ba nguyên tắc cơ bản được đề cập trong báo cáo:
- Tôn trọng mọi người
- tánh hay làm phước
- Tư pháp
Hiệu trưởng đầu tiên nhằm mục đích duy trì phẩm giá và quyền tự chủ của mọi đối tượng con người. Ví dụ, các nhà nghiên cứu nên giảm thiểu việc lừa dối những người tham gia và nên yêu cầu mỗi người đưa ra sự đồng ý rõ ràng của họ.
Nguyên tắc thứ hai, Beneicence, tập trung vào nhiệm vụ của nhà nghiên cứu là giảm thiểu tác hại có thể xảy ra đối với những người tham gia. Nguyên tắc này đặt ra cho các nhà nghiên cứu nhiệm vụ cân bằng tỷ lệ giữa rủi ro cá nhân với lợi ích xã hội tiềm năng.
Công lý, nguyên tắc cuối cùng mà Báo cáo Belmont đưa ra, tập trung vào việc phân bổ rủi ro và lợi ích một cách bình đẳng giữa các nhóm có thể được hưởng lợi từ nghiên cứu. Các nhà nghiên cứu có nhiệm vụ lựa chọn các đối tượng nghiên cứu từ một quần thể rộng lớn hơn. Làm như vậy sẽ giảm thiểu các thành kiến cá nhân và hệ thống có thể ảnh hưởng tiêu cực đến xã hội.
Đặt đạo đức vào nghiên cứu AI
Mặc dù Báo cáo Belmont chủ yếu nhắm vào nghiên cứu liên quan đến đối tượng con người, nhưng các nguyên tắc này đủ rộng để áp dụng cho lĩnh vực đạo đức AI.
Dữ liệu lớn (Big Data) đã trở thành một nguồn tài nguyên quý giá trong lĩnh vực trí tuệ nhân tạo. Các quy trình xác định cách các nhà nghiên cứu thu thập dữ liệu phải tuân theo các nguyên tắc đạo đức.
Việc thực hiện luật bảo mật dữ liệu ở hầu hết các quốc gia phần nào đặt ra giới hạn về những gì các công ty dữ liệu có thể thu thập và sử dụng. Tuy nhiên, phần lớn các quốc gia vẫn có một bộ luật thô sơ để ngăn chặn việc sử dụng AI để gây hại.
Làm thế nào để làm việc với AI một cách đạo đức
Dưới đây là một số khái niệm chính có thể giúp hướng tới việc sử dụng AI có trách nhiệm và đạo đức hơn.
Kiểm soát thiên vị
Trí tuệ nhân tạo vốn dĩ không trung lập. Các thuật toán luôn dễ bị chèn ép và phân biệt đối xử vì dữ liệu mà nó học được bao gồm cả sai lệch.
Một ví dụ phổ biến về AI phân biệt là loại thường xuất hiện trong các hệ thống nhận dạng khuôn mặt. Những người mẫu này thường thành công trong việc xác định khuôn mặt nam giới da trắng, nhưng ít thành công hơn trong việc nhận dạng những người có nước da sẫm màu hơn.
Một ví dụ khác xuất hiện trong OpenAI's DALL-E 2. Người dùng có phát hiện rằng một số lời nhắc thường tái tạo thành kiến về giới tính và chủng tộc mà mô hình đã thu thập được từ tập dữ liệu hình ảnh trực tuyến của nó.
Ví dụ: khi đưa ra lời nhắc về hình ảnh của các luật sư, DALL-E 2 trả về hình ảnh của các luật sư nam. Mặt khác, yêu cầu cung cấp hình ảnh của các tiếp viên hàng không trả về phần lớn là tiếp viên nữ.
Mặc dù có thể không thể loại bỏ hoàn toàn sự thiên vị khỏi hệ thống AI, nhưng chúng ta có thể thực hiện các bước để giảm thiểu ảnh hưởng của nó. Các nhà nghiên cứu và kỹ sư có thể đạt được khả năng kiểm soát thiên vị tốt hơn bằng cách hiểu dữ liệu đào tạo và thuê một nhóm đa dạng để cung cấp đầu vào về cách hệ thống AI hoạt động.
Phương pháp thiết kế lấy con người làm trung tâm
Các thuật toán trên ứng dụng yêu thích của bạn có thể ảnh hưởng tiêu cực đến bạn.
Các nền tảng như Facebook và TikTok có thể tìm hiểu nội dung nào cần phân phối để giữ chân người dùng trên nền tảng của họ.
Ngay cả khi không có ý định gây hại, mục tiêu giữ người dùng dán mắt vào ứng dụng của họ càng lâu càng tốt có thể dẫn đến các vấn đề về sức khỏe tâm thần. Thuật ngữ 'doomscrolling' đã trở nên phổ biến như một thuật ngữ chung cho việc dành quá nhiều thời gian để đọc tin tức tiêu cực trên các nền tảng như Twitter và Facebook.
Trong các trường hợp khác, nội dung thù địch và thông tin sai lệch nhận được một nền tảng rộng lớn hơn vì nó giúp tăng mức độ tương tác của người dùng. Một 2021 nghiên cứu từ các nhà nghiên cứu tại Đại học New York cho thấy rằng các bài đăng từ các nguồn được biết đến với thông tin sai lệch nhận được lượt thích nhiều hơn sáu lần so với các nguồn tin tức uy tín.
Các thuật toán này thiếu phương pháp thiết kế lấy con người làm trung tâm. Các kỹ sư đang thiết kế cách AI thực hiện một hành động phải luôn ghi nhớ trải nghiệm người dùng.
Các nhà nghiên cứu và kỹ sư phải luôn đặt câu hỏi: 'điều này mang lại lợi ích như thế nào cho người dùng?'
Hầu hết các mô hình AI đều theo mô hình hộp đen. Một hộp đen trong học máy đề cập đến một AI mà không con người nào có thể giải thích tại sao AI lại đạt được một kết quả cụ thể.
Hộp đen có vấn đề vì nó làm giảm mức độ tin tưởng mà chúng ta có thể đặt vào máy móc.
Ví dụ, hãy tưởng tượng một kịch bản mà Facebook đã phát hành một thuật toán giúp các chính phủ truy tìm tội phạm. Nếu hệ thống AI gắn cờ cho bạn, sẽ không ai có thể giải thích tại sao nó lại đưa ra quyết định đó. Loại hệ thống này không nên là lý do duy nhất khiến bạn bị bắt.
AI hoặc XAI có thể giải thích sẽ trả về danh sách các yếu tố đã đóng góp vào kết quả cuối cùng. Quay trở lại trình theo dõi tội phạm giả định của chúng tôi, chúng tôi có thể điều chỉnh hệ thống AI để trả về danh sách các bài đăng hiển thị ngôn ngữ hoặc thuật ngữ đáng ngờ. Từ đó, con người có thể xác minh xem người dùng bị gắn cờ có đáng để điều tra hay không.
XAI cung cấp sự minh bạch và tin tưởng hơn vào các hệ thống AI và có thể giúp con người đưa ra quyết định tốt hơn.
Kết luận
Giống như tất cả các phát minh do con người tạo ra, trí tuệ nhân tạo vốn dĩ không phải là tốt hay xấu. Đó là cách chúng ta sử dụng AI mới là điều quan trọng.
Điểm độc đáo về trí tuệ nhân tạo là tốc độ phát triển của nó. Trong năm năm qua, chúng tôi đã chứng kiến những khám phá mới và thú vị trong lĩnh vực máy học mỗi ngày.
Tuy nhiên, luật không nhanh chóng bằng. Khi các tập đoàn và chính phủ tiếp tục tận dụng AI để tối đa hóa lợi nhuận hoặc giành quyền kiểm soát của công dân, chúng ta phải tìm cách thúc đẩy tính minh bạch và công bằng trong việc sử dụng các thuật toán này.
Bạn có nghĩ rằng AI thực sự có đạo đức là khả thi?
Bình luận