AI มีอำนาจในการปรับปรุงประสิทธิภาพในภาคส่วนต่างๆ เช่น ธุรกิจและการดูแลสุขภาพ อย่างไรก็ตาม การขาดความอธิบายเป็นอุปสรรคต่อการไว้วางใจให้เราใช้ข้อมูลนี้ในการตัดสินใจ
เราควรเชื่อการตัดสินของอัลกอริทึมหรือไม่?
เป็นสิ่งสำคัญสำหรับผู้มีอำนาจตัดสินใจในอุตสาหกรรมใดๆ ที่จะต้องเข้าใจข้อจำกัดและอคติที่อาจเกิดขึ้นของ โมเดลการเรียนรู้ของเครื่อง. เพื่อให้แน่ใจว่าแบบจำลองเหล่านี้ทำงานตามที่ตั้งใจไว้ มนุษย์ควรอธิบายผลลัพธ์ของระบบ AI ใดๆ ให้เข้าใจได้
ในบทความนี้ เราจะพูดถึงความสำคัญของการอธิบายได้ใน AI เราจะให้ภาพรวมโดยย่อของประเภทของวิธีการที่ใช้ในการรับคำอธิบายจากแบบจำลองการเรียนรู้ของเครื่อง
AI ที่อธิบายได้คืออะไร?
อธิบายได้ ปัญญาประดิษฐ์ หรือ XAI หมายถึงเทคนิคและวิธีการที่ใช้เพื่อให้มนุษย์เข้าใจว่าโมเดลการเรียนรู้ด้วยเครื่องมาถึงผลลัพธ์ที่แน่นอนได้อย่างไร
เป็นที่นิยมมากมาย อัลกอริทึมการเรียนรู้ของเครื่อง ทำงานราวกับว่ามันเป็น "กล่องดำ" ในการเรียนรู้ของเครื่อง อัลกอริธึมกล่องดำ อ้างถึงโมเดล ML ที่ไม่สามารถตรวจสอบว่าอินพุตบางรายการนำไปสู่เอาต์พุตเฉพาะได้อย่างไร แม้แต่ผู้พัฒนา AI ก็ไม่สามารถอธิบายได้อย่างครบถ้วนว่าอัลกอริธึมทำงานอย่างไร
ตัวอย่างเช่น อัลกอริทึมการเรียนรู้เชิงลึกใช้ เครือข่ายประสาทเทียม เพื่อระบุรูปแบบจากข้อมูลจำนวนมาก แม้ว่านักวิจัยและนักพัฒนา AI จะเข้าใจว่าโครงข่ายประสาทเทียมทำงานอย่างไรจากมุมมองทางเทคนิค แต่พวกเขาก็ไม่สามารถอธิบายได้อย่างเต็มที่ว่าโครงข่ายประสาทเทียมได้ผลลัพธ์เฉพาะอย่างไร
โครงข่ายประสาทเทียมบางเครือข่ายรองรับพารามิเตอร์หลายล้านตัวซึ่งทั้งหมดทำงานพร้อมกันเพื่อส่งกลับผลลัพธ์สุดท้าย
ในสถานการณ์ที่การตัดสินใจมีความสำคัญ การขาดคำอธิบายอาจเป็นปัญหาได้
เหตุใดความสามารถในการอธิบายจึงมีความสำคัญ
คำอธิบาย ให้ข้อมูลเชิงลึกเกี่ยวกับวิธีการตัดสินใจของตัวแบบ ธุรกิจที่วางแผนจะปรับ AI เพื่อตัดสินใจ จะต้องตัดสินใจว่า AI ใช้ข้อมูลที่ถูกต้องหรือไม่เพื่อให้ได้การตัดสินใจที่ดีที่สุด
โมเดลที่ไม่สามารถอธิบายได้เป็นปัญหาในหลายอุตสาหกรรม ตัวอย่างเช่น หากบริษัทต้องใช้อัลกอริธึมในการตัดสินใจจ้างงาน ทุกคนควรมีความโปร่งใสในวิธีที่อัลกอริทึมตัดสินใจปฏิเสธผู้สมัคร
อีกสนามหนึ่งที่ การเรียนรู้ลึก ๆ มีการใช้อัลกอริธึมบ่อยขึ้นในด้านการดูแลสุขภาพ ในกรณีที่อัลกอริธึมพยายามตรวจหาสัญญาณที่อาจเป็นไปได้ของมะเร็ง แพทย์จะต้องเข้าใจว่าแบบจำลองนี้มาถึงการวินิจฉัยเฉพาะได้อย่างไร ผู้เชี่ยวชาญจำเป็นต้องใช้ความสามารถในการอธิบายในระดับหนึ่งเพื่อใช้ประโยชน์จาก AI อย่างเต็มที่และไม่สุ่มสี่สุ่มห้าปฏิบัติตาม
ภาพรวมของอัลกอริทึม AI ที่อธิบายได้
อัลกอริธึม AI ที่อธิบายได้แบ่งออกเป็นสองประเภทกว้างๆ: แบบจำลองที่ตีความได้ด้วยตัวเองและคำอธิบายแบบโพสต์เฉพาะกิจ
โมเดลที่ตีความได้เอง
โมเดลที่ตีความได้เอง เป็นอัลกอริธึมที่มนุษย์สามารถอ่านและตีความได้โดยตรง ในกรณีนี้ ตัวแบบเองคือคำอธิบาย
ตัวแบบที่ตีความได้ด้วยตัวเองที่พบบ่อยที่สุดบางตัวรวมถึงแผนผังการตัดสินใจและตัวแบบการถดถอย
ตัวอย่างเช่น ลองพิจารณาแบบจำลองการถดถอยเชิงเส้นที่คาดการณ์ราคาบ้าน การถดถอยเชิงเส้นหมายความว่าด้วยค่า x บางอย่าง เราจะสามารถทำนายค่าเป้าหมาย y ได้โดยใช้ฟังก์ชันเชิงเส้นเฉพาะ f
สมมติว่าแบบจำลองของเราใช้ขนาดล็อตเป็นข้อมูลหลักในการกำหนดราคาบ้าน เมื่อใช้การถดถอยเชิงเส้น เราสามารถหาฟังก์ชัน y = 5000 * x โดยที่ x คือจำนวนตารางฟุตหรือขนาดล็อต
โมเดลนี้มนุษย์สามารถอ่านได้และโปร่งใสโดยสมบูรณ์
คำอธิบายหลังเฉพาะกิจ
คำอธิบายหลังเหตุการณ์ เป็นกลุ่มของอัลกอริธึมและเทคนิคที่สามารถนำมาใช้เพื่อเพิ่มคำอธิบายให้กับอัลกอริธึมอื่นๆ
เทคนิคการอธิบายแบบ post-hoc ส่วนใหญ่ไม่จำเป็นต้องเข้าใจว่าอัลกอริทึมทำงานอย่างไร ผู้ใช้เพียงต้องการระบุอินพุตและเอาต์พุตที่เป็นผลลัพธ์ของอัลกอริธึมเป้าหมาย
คำอธิบายเหล่านี้แบ่งออกเป็นสองประเภทเพิ่มเติม: คำอธิบายในท้องถิ่นและคำอธิบายทั่วโลก
คำอธิบายในท้องถิ่นมีจุดมุ่งหมายเพื่ออธิบายชุดย่อยของอินพุต ตัวอย่างเช่น ให้ผลลัพธ์เฉพาะ คำอธิบายในพื้นที่จะสามารถระบุได้ว่าพารามิเตอร์ใดมีส่วนในการตัดสินใจนั้น
คำอธิบายทั่วโลกมีจุดมุ่งหมายเพื่อสร้างคำอธิบายหลังเฉพาะของอัลกอริธึมทั้งหมด คำอธิบายประเภทนี้มักทำได้ยากกว่า อัลกอริทึมนั้นซับซ้อนและอาจมีพารามิเตอร์นับไม่ถ้วนที่มีความสำคัญในการบรรลุผลสุดท้าย
ตัวอย่างอัลกอริธึมคำอธิบายท้องถิ่น
ในบรรดาเทคนิคต่างๆ มากมายที่ใช้ในการบรรลุ XAI อัลกอริทึมที่ใช้สำหรับคำอธิบายในท้องถิ่นคือสิ่งที่นักวิจัยส่วนใหญ่มุ่งเน้น
ในส่วนนี้ เราจะมาดูอัลกอริธึมคำอธิบายในท้องถิ่นที่เป็นที่นิยมและวิธีทำงานของอัลกอริธึม
มะนาว
LIME (ตัวอธิบายแบบจำลองผู้ไม่เชื่อเรื่องพระเจ้าในท้องถิ่น) เป็นอัลกอริธึมที่สามารถอธิบายการคาดคะเนของอัลกอริธึมการเรียนรู้ของเครื่องใดๆ
ตามชื่อที่บ่งบอก LIME เป็นแบบไม่เชื่อเรื่องพระเจ้า ซึ่งหมายความว่า LIME สามารถทำงานได้กับโมเดลทุกประเภท โมเดลนี้ยังสามารถตีความได้ภายในเครื่อง ซึ่งหมายความว่าเราสามารถอธิบายแบบจำลองโดยใช้ผลลัพธ์ในพื้นที่ แทนที่จะอธิบายแบบจำลองทั้งหมด
แม้ว่าแบบจำลองที่อธิบายจะเป็นกล่องดำ LIME จะสร้างแบบจำลองเชิงเส้นตรงในพื้นที่รอบจุดที่อยู่ใกล้เคียงตำแหน่งที่แน่นอน
LIMe จัดเตรียมโมเดลเชิงเส้นที่ใกล้เคียงกับโมเดลในบริเวณใกล้เคียงกับการคาดการณ์ แต่ไม่จำเป็นต้องเป็นแบบทั่วโลก
คุณสามารถเรียนรู้เพิ่มเติมเกี่ยวกับอัลกอริทึมนี้ได้โดยไปที่ที่เก็บโอเพนซอร์สนี้
สับ
คำอธิบายเพิ่มเติมของ Shapley (SHAP) เป็นวิธีอธิบายคำทำนายของแต่ละคน เพื่อให้เข้าใจว่า SHAP ทำงานอย่างไร เราจะต้องอธิบายว่าค่าของ Shapley คืออะไร
ค่าแชปลีย์เป็นแนวคิดในทฤษฎีเกมที่เกี่ยวข้องกับการกำหนด "ค่า" ให้กับผู้เล่นแต่ละคนในเกม มีการกระจายเพื่อให้ค่าที่กำหนดให้กับผู้เล่นแต่ละคนขึ้นอยู่กับการมีส่วนร่วมของผู้เล่นในเกม
วิธีสมัคร ทฤษฎีเกมกับแมชชีนเลิร์นนิง โมเดล?
สมมติว่าคุณลักษณะแต่ละอย่างในแบบจำลองของเราคือ "ผู้เล่น" และ "เกม" เป็นฟังก์ชันที่ส่งออกการทำนาย
เมธอด SHAP สร้างโมเดลเชิงเส้นแบบถ่วงน้ำหนักที่กำหนดค่าแชปลีย์ให้กับคุณลักษณะต่างๆ คุณลักษณะที่มีค่าแชปลีย์สูงมีอิทธิพลต่อผลลัพธ์ของโมเดลมากกว่า ในขณะที่คุณลักษณะที่มีค่าแชปลีย์ต่ำจะมีผลกระทบน้อยกว่า
สรุป
ความสามารถในการอธิบายของ AI มีความสำคัญไม่เพียงแต่เพื่อสร้างความมั่นใจในความเป็นธรรมและความรับผิดชอบของระบบ AI เท่านั้น แต่ยังรวมถึงการสร้างความไว้วางใจในเทคโนโลยี AI โดยทั่วไปด้วย
ยังมีงานวิจัยอีกมากที่ต้องทำในด้านความสามารถในการอธิบายของ AI แต่มีแนวทางที่มีแนวโน้มว่าจะสามารถช่วยให้เราเข้าใจระบบ AI ของกล่องดำที่ซับซ้อนซึ่งใช้กันอย่างแพร่หลายในปัจจุบัน
ด้วยการวิจัยและพัฒนาเพิ่มเติม เราสามารถหวังว่าจะสร้างระบบ AI ที่โปร่งใสและเข้าใจง่ายขึ้น ในระหว่างนี้ ธุรกิจและผู้เชี่ยวชาญในสาขาต่างๆ เช่น การดูแลสุขภาพ ควรตระหนักถึงข้อจำกัดของความสามารถในการอธิบาย AI
เขียนความเห็น