เมื่อสามปีที่แล้ว ฉันได้ไปเยี่ยมชมนิทรรศการศิลปะที่ค่อนข้างน่าสนใจ “Machine Memoirs” โดย Refik Anadol ทำให้ฉันสนใจตั้งแต่เริ่มต้น
เขาเป็นชื่อที่ได้รับความนิยมในหมู่ผู้ที่สนใจในการผสมผสานระหว่างศิลปะและ AI แต่ไม่ต้องกังวล บล็อกนี้ไม่เกี่ยวกับศิลปะ เราจะเจาะลึก "การรับรู้" ของ AI
ในนิทรรศการครั้งนี้ อนาดลได้ทดลองด้วย ภาพการสำรวจอวกาศของนาซา นิทรรศการนี้ได้รับแรงบันดาลใจจากแนวคิดที่ว่ากล้องโทรทรรศน์สามารถ "ฝัน" ได้โดยใช้คลังภาพ ซึ่งทำให้อุปสรรคระหว่างข้อเท็จจริงและจินตนาการพร่ามัว
ด้วยการตรวจสอบความสัมพันธ์ระหว่างข้อมูล หน่วยความจำ และประวัติศาสตร์ในระดับจักรวาล อนาดอลขอให้เราพิจารณาถึงศักยภาพของ ปัญญาประดิษฐ์ เพื่อสังเกตและเข้าใจโลกรอบตัวเรา และแม้แต่ AI ก็ยังมีความฝันเป็นของตัวเอง…
แล้วเหตุใดสิ่งนี้จึงเกี่ยวข้องกับเรา?
ลองพิจารณาสิ่งนี้: เช่นเดียวกับที่ Anadol ตรวจสอบแนวคิดของกล้องโทรทรรศน์ที่ฝันจากข้อมูลของพวกเขา ระบบ AI มีความฝันแบบของตัวเอง—หรือค่อนข้างจะเป็นภาพหลอน—ภายในธนาคารหน่วยความจำดิจิทัลของพวกเขา
ภาพหลอนเหล่านี้ เช่นเดียวกับการแสดงภาพในนิทรรศการของ Anadol สามารถช่วยให้เราเรียนรู้เพิ่มเติมเกี่ยวกับข้อมูล AI และขีดจำกัดของมัน
ภาพหลอน AI คืออะไรกันแน่?
เมื่อโมเดลภาษาขนาดใหญ่ เช่น แชทบอท AI แบบกำเนิด สร้างเอาต์พุตที่มีรูปแบบที่ไม่มีอยู่จริงหรือมองไม่เห็นสำหรับผู้สังเกตการณ์ที่เป็นมนุษย์ เราเรียกสิ่งเหล่านี้ว่า “ภาพหลอน AI"
ผลลัพธ์เหล่านี้ ซึ่งแตกต่างจากคำตอบที่คาดไว้โดยอิงตามอินพุตที่มอบให้กับ AI อาจเป็นข้อผิดพลาดโดยสิ้นเชิงหรือไร้สาระ
ในบริบทของคอมพิวเตอร์ คำว่า "ภาพหลอน" อาจดูผิดปกติ แต่สามารถอธิบายลักษณะที่แปลกประหลาดของผลลัพธ์ที่ไม่ถูกต้องเหล่านี้ได้อย่างถูกต้อง อาการประสาทหลอนของ AI เกิดจากตัวแปรต่างๆ รวมถึงการใส่มากเกินไป อคติในข้อมูลการฝึก และความซับซ้อนของโมเดล AI
เพื่อให้เข้าใจได้ดีขึ้น สิ่งนี้มีแนวคิดคล้ายกับการที่มนุษย์มองเห็นรูปร่างในก้อนเมฆหรือใบหน้าบนดวงจันทร์
ตัวอย่าง:
ในตัวอย่างนี้ ฉันถามคำถามที่ง่ายมาก ChatGPT- ฉันควรจะได้รับคำตอบเช่น “ผู้แต่งหนังสือชุด Dune คือ Frank Herbert”
ทำไมถึงเกิดขึ้น?
แม้จะถูกสร้างขึ้นเพื่อเขียนเนื้อหาที่มีความสอดคล้องและลื่นไหล แต่โมเดลภาษาขนาดใหญ่ก็ไม่สามารถเข้าใจสิ่งที่พวกเขากำลังพูดได้ นี่เป็นสิ่งสำคัญมากในการพิจารณาความน่าเชื่อถือของเนื้อหาที่สร้างโดย AI
แม้ว่าแบบจำลองเหล่านี้จะสามารถสร้างปฏิกิริยาที่เลียนแบบพฤติกรรมของมนุษย์ได้ พวกเขาขาดการรับรู้บริบทและทักษะการคิดอย่างมีวิจารณญาณ ที่เป็นรากฐานของสติปัญญาที่แท้จริง
เป็นผลให้เอาต์พุตที่สร้างโดย AI เสี่ยงต่อการทำให้เข้าใจผิดหรือผิดเนื่องจากชอบรูปแบบการจับคู่มากกว่าความถูกต้องของข้อเท็จจริง
อาการประสาทหลอนอื่นๆ อาจเป็นอย่างไร?
ข้อมูลที่ผิดที่เป็นอันตราย: สมมติว่าแชทบอท AI ทั่วไปสร้างหลักฐานและคำให้การเพื่อกล่าวหาบุคคลสาธารณะว่ามีพฤติกรรมทางอาญาอย่างไม่ถูกต้อง ข้อมูลที่ทำให้เข้าใจผิดนี้อาจสร้างความเสียหายต่อชื่อเสียงของบุคคลและทำให้เกิดการตอบโต้อย่างไม่ยุติธรรม
คำตอบแปลกหรือน่าขนลุก: เพื่อเป็นตัวอย่างที่น่าขบขัน ลองจินตนาการถึงแชทบอทที่ถามคำถามเกี่ยวกับสภาพอากาศแก่ผู้ใช้ และตอบกลับด้วยการพยากรณ์ที่บอกว่าฝนจะตกทั้งสุนัขและแมว พร้อมด้วยภาพเม็ดฝนที่ดูเหมือนแมวและสุนัข แม้ว่าพวกเขาจะตลก แต่มันก็ยังคงเป็น "ภาพหลอน"
ความไม่ถูกต้องตามข้อเท็จจริง: สมมติว่าแชทบอตที่ใช้แบบจำลองภาษาระบุอย่างเป็นเท็จว่ากำแพงเมืองจีนอาจดูได้จากอวกาศ โดยไม่ได้อธิบายว่าจะมองเห็นได้ภายใต้เงื่อนไขเฉพาะเท่านั้น แม้ว่าคำพูดนี้อาจดูเป็นไปได้สำหรับบางคน แต่ก็ไม่ถูกต้องและอาจทำให้ผู้คนเข้าใจผิดเกี่ยวกับการมองเห็นกำแพงจากอวกาศได้
คุณจะหลีกเลี่ยงภาพหลอน AI ในฐานะผู้ใช้ได้อย่างไร
แจ้งอย่างชัดเจน
คุณต้องสื่อสารกับโมเดล AI อย่างชัดเจน
คิดถึงเป้าหมายของคุณและออกแบบคำแนะนำก่อนเขียน
ตัวอย่างเช่น ให้คำแนะนำเฉพาะเจาะจง เช่น “อธิบายวิธีการทำงานของอินเทอร์เน็ตและเขียนย่อหน้าเกี่ยวกับความสำคัญของอินเทอร์เน็ตในสังคมยุคใหม่” แทนที่จะถามคำถามทั่วไป เช่น “บอกฉันเกี่ยวกับอินเทอร์เน็ตหน่อย”
ความชัดเจนช่วยให้โมเดล AI ตีความความตั้งใจของคุณ
ตัวอย่าง: ถามคำถาม AI เช่นนี้:
“คลาวด์คอมพิวติ้งคืออะไร และทำงานอย่างไร”
“อธิบายผลกระทบของการเลื่อนข้อมูลต่อประสิทธิภาพของโมเดล”
“หารือถึงผลกระทบและอนาคตที่อาจเกิดขึ้นของเทคโนโลยี VR ต่อธุรกิจไอที”
โอบกอดพลังแห่งตัวอย่าง
การให้ตัวอย่างในพร้อมท์ของคุณช่วยให้โมเดล AI เข้าใจบริบทและสร้างการตอบกลับที่แม่นยำ ไม่ว่าคุณกำลังมองหาข้อมูลเชิงลึกในอดีตหรือคำอธิบายทางเทคนิค การให้ตัวอย่างสามารถช่วยเพิ่มความแม่นยำของเนื้อหาที่สร้างโดย AI
ตัวอย่างเช่น คุณสามารถพูดว่า “พูดถึงนิยายแฟนตาซีอย่างแฮร์รี่ พอตเตอร์”
แบ่งย่อยงานที่ซับซ้อน
คอมเพล็กซ์แจ้งเตือนอัลกอริทึม AI โอเวอร์โหลด และอาจนำไปสู่ผลลัพธ์ที่ไม่เกี่ยวข้อง เพื่อป้องกันสิ่งนี้ ให้แบ่งกิจกรรมที่ซับซ้อนออกเป็นส่วนย่อยๆ และจัดการได้ง่ายกว่า ด้วยการจัดระเบียบพร้อมท์ของคุณตามลำดับ คุณอนุญาตให้ AI มุ่งเน้นไปที่แต่ละองค์ประกอบอย่างเป็นอิสระ ส่งผลให้เกิดการตอบกลับที่สมเหตุสมผลมากขึ้น
เช่น แทนที่จะขอให้ AI “อธิบายกระบวนการสร้าง โครงข่ายประสาทเทียม” ในการสืบค้นเดียว แบ่งงานออกเป็นขั้นตอนแยกกัน เช่น คำจำกัดความของปัญหาและการรวบรวมข้อมูล
ตรวจสอบผลลัพธ์และให้ข้อเสนอแนะ
ตรวจสอบผลลัพธ์ที่สร้างโดยโมเดล AI อีกครั้งเสมอ โดยเฉพาะอย่างยิ่งสำหรับกิจกรรมที่อิงตามข้อเท็จจริงหรือที่สำคัญ เปรียบเทียบคำตอบกับแหล่งข้อมูลที่เชื่อถือได้ และสังเกตความแตกต่างหรือข้อผิดพลาด
ป้อนข้อมูลให้กับระบบ AI เพื่อเพิ่มประสิทธิภาพในอนาคตและลดอาการประสาทหลอน
กลยุทธ์สำหรับนักพัฒนาในการหลีกเลี่ยงอาการประสาทหลอนจาก AI
ใช้การสร้างการดึงข้อมูล-Augmented (RAG)
ผสานรวมเทคนิคการสร้างการดึงข้อมูลเข้ากับระบบ AI เพื่อเป็นฐานในการตอบกลับตามข้อเท็จจริงจากฐานข้อมูลที่เชื่อถือได้
Retrieval-augmented Generation (RAG) ผสมผสานการสร้างภาษาธรรมชาติมาตรฐานเข้ากับความสามารถในการรับและรวมข้อมูลที่เกี่ยวข้องจากฐานความรู้ขนาดใหญ่ ส่งผลให้ได้ผลลัพธ์ที่มีบริบทสมบูรณ์มากขึ้น
ด้วยการรวมเนื้อหาที่สร้างโดย AI เข้ากับแหล่งข้อมูลที่ได้รับการตรวจสอบแล้ว คุณสามารถปรับปรุงความน่าเชื่อถือและความน่าเชื่อถือของผลลัพธ์ AI ได้
ตรวจสอบและติดตามเอาต์พุต AI อย่างต่อเนื่อง
ตั้งค่าขั้นตอนการตรวจสอบที่เข้มงวดเพื่อตรวจสอบความถูกต้องและความสม่ำเสมอของเอาต์พุต AI แบบเรียลไทม์ ตรวจสอบประสิทธิภาพของ AI อย่างตั้งใจ มองหาอาการประสาทหลอนหรือข้อผิดพลาดที่อาจเกิดขึ้น และทำซ้ำในการฝึกโมเดลและการปรับให้เหมาะสมทันทีเพื่อเพิ่มความน่าเชื่อถือเมื่อเวลาผ่านไป
ตัวอย่างเช่น ใช้ขั้นตอนการตรวจสอบอัตโนมัติเพื่อตรวจสอบเนื้อหาที่สร้างโดย AI ว่ามีความถูกต้องตามข้อเท็จจริง และเน้นกรณีของภาพหลอนที่เป็นไปได้สำหรับการประเมินด้วยตนเอง
ตรวจสอบการดริฟท์ข้อมูล
การเคลื่อนตัวของข้อมูลเป็นปรากฏการณ์ที่คุณลักษณะทางสถิติของข้อมูลที่ใช้ในการฝึกโมเดล AI จะแตกต่างกันไปตามเวลา หากโมเดล AI พบกับข้อมูลที่แตกต่างจากข้อมูลการฝึกอย่างมากในระหว่างการอนุมาน ก็อาจให้ผลลัพธ์ที่เป็นเท็จหรือไร้เหตุผล ส่งผลให้เกิดอาการประสาทหลอน
ตัวอย่างเช่น หากโมเดล AI ได้รับการฝึกอบรมเกี่ยวกับข้อมูลในอดีตที่ไม่เกี่ยวข้องหรือบ่งชี้ถึงสภาพแวดล้อมปัจจุบันอีกต่อไป ก็อาจทำให้ข้อสรุปหรือการคาดการณ์ไม่ถูกต้อง
ด้วยเหตุนี้ การตรวจสอบและแก้ไขการเบี่ยงเบนของข้อมูลจึงมีความสำคัญอย่างยิ่งต่อการรับรองประสิทธิภาพและความน่าเชื่อถือของระบบ AI ขณะเดียวกันก็ลดโอกาสที่จะเกิดอาการประสาทหลอนด้วย
สรุป
จากข้อมูลของ IBM Data อาการประสาทหลอนของ AI เกิดขึ้นประมาณ 3% ถึง 10% ของคำตอบจากโมเดล AI
ดังนั้นไม่ทางใดก็ทางหนึ่งคุณก็คงสังเกตเห็นมันเช่นกัน ฉันเชื่อว่านี่เป็นหัวข้อที่น่าสนใจอย่างยิ่ง เพราะเป็นการเตือนใจที่น่าทึ่งถึงเส้นทางที่ต่อเนื่องไปสู่การเพิ่มขีดความสามารถของ AI
เราได้สังเกตและทดลองความน่าเชื่อถือของ AI ความซับซ้อนของการประมวลผลข้อมูล และการโต้ตอบระหว่างมนุษย์กับ AI
เขียนความเห็น