เราจะแน่ใจได้อย่างไรว่าเราใช้ AI อย่างมีความรับผิดชอบ?
ความก้าวหน้าในแมชชีนเลิร์นนิงแสดงให้เห็นว่าโมเดลสามารถปรับขนาดได้อย่างรวดเร็วและส่งผลกระทบต่อสังคมส่วนใหญ่
อัลกอริทึมควบคุมฟีดข่าวบนโทรศัพท์ของทุกคน รัฐบาลและองค์กรต่างๆ เริ่มใช้ AI ในการตัดสินใจโดยใช้ข้อมูลเป็นข้อมูล
เมื่อ AI ฝังแน่นมากขึ้นในการทำงานของโลก เราจะแน่ใจได้อย่างไรว่า AI ทำงานอย่างเป็นธรรม
ในบทความนี้ เราจะพิจารณาความท้าทายด้านจริยธรรมของการใช้ AI และดูว่าเราสามารถทำอะไรได้บ้างเพื่อให้แน่ใจว่าการใช้ AI อย่างมีความรับผิดชอบ
AI จริยธรรมคืออะไร?
AI เชิงจริยธรรมหมายถึงปัญญาประดิษฐ์ที่ปฏิบัติตามแนวทางจริยธรรมบางชุด
กล่าวอีกนัยหนึ่งว่าเป็นวิธีที่บุคคลและองค์กรทำงานร่วมกับ AI อย่างมีความรับผิดชอบ
ในช่วงไม่กี่ปีที่ผ่านมา บริษัทต่างๆ เริ่มปฏิบัติตามกฎหมายว่าด้วยความเป็นส่วนตัวของข้อมูล หลังจากพบหลักฐานการล่วงละเมิดและการละเมิด ในทำนองเดียวกัน แนวทางสำหรับ AI ที่มีจริยธรรมก็แนะนำเพื่อให้แน่ใจว่า AI จะไม่ส่งผลเสียต่อสังคม
ตัวอย่างเช่น AI บางประเภททำงานในลักษณะที่มีอคติหรือขยายเวลาอคติที่มีอยู่แล้ว ลองพิจารณาอัลกอริธึมที่ช่วยให้นายหน้าจัดเรียงเรซูเม่นับพันรายการ หากอัลกอริทึมได้รับการฝึกอบรมในชุดข้อมูลที่มีพนักงานชายหรือผิวขาวเป็นหลัก ก็เป็นไปได้ว่าอัลกอริทึมจะสนับสนุนผู้สมัครที่อยู่ในหมวดหมู่เหล่านั้น
การสร้างหลักการสำหรับ AI ที่มีจริยธรรม
เราได้คิดเกี่ยวกับการกำหนดกฎเกณฑ์ต่างๆ เพื่อบังคับใช้ ปัญญาประดิษฐ์ มานานหลายทศวรรษ
แม้แต่ในทศวรรษ 1940 เมื่อคอมพิวเตอร์ที่ทรงพลังที่สุดสามารถคำนวณทางวิทยาศาสตร์เฉพาะทางเท่านั้น นักเขียนนิยายวิทยาศาสตร์ได้ไตร่ตรองถึงแนวคิดในการควบคุมหุ่นยนต์อัจฉริยะ
Isaac Asimov ได้สร้างชื่อเสียงให้กับกฎสามข้อของวิทยาการหุ่นยนต์ ซึ่งเขาเสนอให้ฝังอยู่ในการเขียนโปรแกรมของหุ่นยนต์ในเรื่องสั้นของเขาในฐานะคุณลักษณะด้านความปลอดภัย
กฎหมายเหล่านี้ได้กลายเป็นมาตรฐานสำหรับเรื่องราวไซไฟในอนาคตมากมาย และได้แจ้งการศึกษาจริงเกี่ยวกับจริยธรรมของ AI ด้วย
ในการวิจัยร่วมสมัย นักวิจัย AI กำลังมองหาแหล่งข้อมูลที่มีเหตุผลมากขึ้นเพื่อสร้างรายการหลักการสำหรับ AI ที่มีจริยธรรม
เนื่องจาก AI จะส่งผลต่อชีวิตมนุษย์ในท้ายที่สุด เราจึงต้องมีความเข้าใจพื้นฐานเกี่ยวกับสิ่งที่เราควรทำและไม่ควรทำ
รายงานเบลมอนต์
สำหรับจุดอ้างอิง นักวิจัยด้านจริยธรรมดูรายงานของเบลมอนต์เพื่อเป็นแนวทาง ดิ รายงานเบลมอนต์ เป็นเอกสารที่ตีพิมพ์โดยสถาบันสุขภาพแห่งชาติของสหรัฐอเมริกาในปี 1979 ความโหดร้ายทางชีวการแพทย์ที่เกิดขึ้นในสงครามโลกครั้งที่ 2 นำไปสู่การผลักดันให้ออกกฎหมายหลักเกณฑ์ทางจริยธรรมสำหรับนักวิจัยที่ปฏิบัติงานด้านการแพทย์
หลักการพื้นฐานสามประการที่กล่าวถึงในรายงานมีดังต่อไปนี้
- ความเคารพต่อบุคคล
- ประโยชน์
- ความยุติธรรม
หลักการแรกมีจุดมุ่งหมายเพื่อรักษาศักดิ์ศรีและความเป็นอิสระของมนุษย์ทุกคน ตัวอย่างเช่น นักวิจัยควรลดการหลอกลวงผู้เข้าร่วมให้เหลือน้อยที่สุด และควรกำหนดให้แต่ละคนให้ความยินยอมอย่างชัดแจ้ง
หลักการประการที่สอง การให้พร มุ่งเน้นไปที่หน้าที่ของผู้วิจัยในการลดอันตรายที่อาจเกิดขึ้นกับผู้เข้าร่วมให้เหลือน้อยที่สุด หลักการนี้ทำให้นักวิจัยมีหน้าที่ในการสร้างสมดุลระหว่างอัตราส่วนความเสี่ยงส่วนบุคคลต่อผลประโยชน์ทางสังคมที่อาจเกิดขึ้น
ความยุติธรรม ซึ่งเป็นหลักการขั้นสุดท้ายที่จัดทำโดย Belmont Report มุ่งเน้นไปที่การกระจายความเสี่ยงและผลประโยชน์ที่เท่าเทียมกันระหว่างกลุ่มต่างๆ ที่อาจได้รับประโยชน์จากการวิจัย นักวิจัยมีหน้าที่เลือกวิชาวิจัยจากประชากรในวงกว้าง การทำเช่นนี้จะลดอคติส่วนบุคคลและเชิงระบบที่อาจส่งผลเสียต่อสังคม
วางจริยธรรมในการวิจัย AI
แม้ว่ารายงานของ Belmont จะมุ่งเป้าไปที่การวิจัยเกี่ยวกับมนุษย์เป็นหลัก แต่หลักการก็กว้างพอที่จะนำไปใช้กับด้านจริยธรรม AI
บิ๊กดาต้าได้กลายเป็นทรัพยากรที่มีค่าในด้านปัญญาประดิษฐ์ กระบวนการที่กำหนดวิธีที่นักวิจัยรวบรวมข้อมูลควรเป็นไปตามแนวทางจริยธรรม
การบังคับใช้กฎหมายความเป็นส่วนตัวของข้อมูลในประเทศส่วนใหญ่จะจำกัดสิ่งที่บริษัทข้อมูลสามารถรวบรวมและนำไปใช้ได้ อย่างไรก็ตาม ประเทศส่วนใหญ่ยังคงมีชุดกฎหมายพื้นฐานเพื่อป้องกันการใช้ AI เพื่อก่อให้เกิดอันตราย
วิธีการทำงานกับ AI อย่างมีจริยธรรม
ต่อไปนี้คือแนวคิดหลักบางประการที่สามารถช่วยในการทำงานเพื่อการใช้ AI อย่างมีจริยธรรมและมีความรับผิดชอบมากขึ้น
การควบคุมอคติ
ปัญญาประดิษฐ์ไม่ได้เป็นกลางโดยเนื้อแท้ อัลกอริธึมมักจะอ่อนไหวต่อการแทรกอคติและการเลือกปฏิบัติ เนื่องจากข้อมูลที่เรียนรู้จากรวมถึงอคติ
ตัวอย่างทั่วไปของการเลือกปฏิบัติ AI คือประเภทที่มักปรากฏในระบบจดจำใบหน้า โมเดลเหล่านี้มักประสบความสำเร็จในการระบุใบหน้าชายผิวขาว แต่ไม่ค่อยประสบความสำเร็จในการจดจำคนที่มีผิวคล้ำ
อีกตัวอย่างหนึ่งปรากฏใน DALL-E 2 ของ OpenAI ผู้ใช้มี ค้นพบ การแจ้งเตือนบางอย่างมักจะทำให้เกิดอคติทางเพศและเชื้อชาติที่นางแบบได้หยิบขึ้นมาจากชุดข้อมูลของรูปภาพออนไลน์
ตัวอย่างเช่น เมื่อได้รับข้อความแจ้งเกี่ยวกับรูปภาพของทนายความ DALL-E 2 จะส่งคืนรูปภาพของทนายความชาย ในทางกลับกัน การขอรูปภาพของพนักงานต้อนรับบนเครื่องบินส่งคืนพนักงานต้อนรับบนเครื่องบินส่วนใหญ่เป็นผู้หญิง
แม้ว่าอาจเป็นไปไม่ได้ที่จะขจัดอคติออกจากระบบ AI โดยสิ้นเชิง แต่เราสามารถทำตามขั้นตอนต่างๆ เพื่อลดผลกระทบได้ นักวิจัยและวิศวกรสามารถควบคุมอคติได้มากขึ้นโดยการทำความเข้าใจข้อมูลการฝึกอบรมและจ้างทีมที่หลากหลายเพื่อเสนอข้อมูลเกี่ยวกับวิธีการทำงานของระบบ AI
แนวทางการออกแบบที่เน้นมนุษย์เป็นศูนย์กลาง
อัลกอริทึมในแอปโปรดของคุณอาจส่งผลเสียต่อคุณ
แพลตฟอร์มเช่น Facebook และ TikTok สามารถเรียนรู้ว่าเนื้อหาใดที่จะให้บริการเพื่อให้ผู้ใช้อยู่บนแพลตฟอร์มของตน
แม้จะไม่มีเจตนาที่จะก่อให้เกิดอันตราย แต่วัตถุประสงค์เพื่อให้ผู้ใช้ติดแอปของตนให้นานที่สุดอาจนำไปสู่ปัญหาสุขภาพจิตได้ คำว่า 'ดูมสโครลลิ่ง' ได้รับความนิยมเพิ่มขึ้นในฐานะคำศัพท์ที่ใช้อ่านได้ทั้งหมดสำหรับการใช้เวลาอ่านข่าวเชิงลบบนแพลตฟอร์มต่างๆ เช่น Twitter และ Facebook มากเกินไป
ในกรณีอื่นๆ เนื้อหาแสดงความเกลียดชังและข้อมูลที่ไม่ถูกต้องจะได้รับแพลตฟอร์มที่กว้างขึ้นเพราะจะช่วยเพิ่มการมีส่วนร่วมของผู้ใช้ อา การศึกษา 2021 จากนักวิจัยที่มหาวิทยาลัยนิวยอร์ก แสดงให้เห็นว่าโพสต์จากแหล่งที่ทราบข้อมูลเท็จได้รับการกดชอบมากกว่าแหล่งข่าวที่มีชื่อเสียงถึง XNUMX เท่า
อัลกอริธึมเหล่านี้ยังขาดอยู่ในแนวทางการออกแบบที่เน้นมนุษย์เป็นศูนย์กลาง วิศวกรที่กำลังออกแบบวิธีที่ AI ดำเนินการต้องคำนึงถึงประสบการณ์ของผู้ใช้อยู่เสมอ
นักวิจัยและวิศวกรต้องถามคำถามเสมอว่า 'สิ่งนี้มีประโยชน์ต่อผู้ใช้อย่างไร'
โมเดล AI ส่วนใหญ่ใช้โมเดลกล่องดำ กล่องดำใน เรียนรู้เครื่อง หมายถึง AI ที่ไม่มีมนุษย์คนใดสามารถอธิบายได้ว่าทำไม AI มาถึงผลลัพธ์เฉพาะ
กล่องดำเป็นปัญหาเพราะลดปริมาณความไว้วางใจที่เราสามารถใส่ในเครื่องได้
ตัวอย่างเช่น ลองนึกภาพสถานการณ์ที่ Facebook เปิดตัวอัลกอริทึมที่ช่วยให้รัฐบาลติดตามอาชญากร หากระบบ AI ตั้งค่าสถานะคุณ จะไม่มีใครสามารถอธิบายได้ว่าทำไมจึงตัดสินใจเช่นนั้น ระบบประเภทนี้ไม่ควรเป็นเหตุผลเดียวที่คุณควรถูกจับ
AI หรือ XAI ที่อธิบายได้ควรส่งคืนรายการปัจจัยที่ส่งผลต่อผลลัพธ์สุดท้าย กลับไปที่ตัวติดตามอาชญากรที่สมมติขึ้น เราสามารถปรับแต่งระบบ AI เพื่อส่งคืนรายการโพสต์ที่แสดงภาษาหรือข้อกำหนดที่น่าสงสัย จากนั้น มนุษย์จะสามารถตรวจสอบได้ว่าผู้ใช้ที่ถูกตั้งค่าสถานะนั้นควรค่าแก่การตรวจสอบหรือไม่
XAI ให้ความโปร่งใสและความไว้วางใจในระบบ AI มากขึ้น และสามารถช่วยให้มนุษย์ตัดสินใจได้ดีขึ้น
สรุป
เช่นเดียวกับสิ่งประดิษฐ์ที่มนุษย์สร้างขึ้นทั้งหมด ปัญญาประดิษฐ์ไม่ได้ดีหรือไม่ดีโดยเนื้อแท้ เป็นวิธีที่เราใช้ AI ที่สำคัญ
เอกลักษณ์ของปัญญาประดิษฐ์คือการเติบโตอย่างรวดเร็ว ในช่วงห้าปีที่ผ่านมา เราได้เห็นการค้นพบใหม่ๆ ที่น่าตื่นเต้นในด้านการเรียนรู้ของเครื่องทุกวัน
อย่างไรก็ตาม กฎหมายไม่เร็วเท่า ในขณะที่องค์กรและรัฐบาลยังคงใช้ประโยชน์จาก AI เพื่อเพิ่มผลกำไรสูงสุดหรือเข้าควบคุมพลเมือง เราต้องหาวิธีที่จะผลักดันให้เกิดความโปร่งใสและความเท่าเทียมในการใช้อัลกอริธึมเหล่านี้
คุณคิดว่า AI ที่มีจริยธรรมอย่างแท้จริงเป็นไปได้หรือไม่?
เขียนความเห็น