การระงับพนักงาน Google ที่อ้างว่าแชทบ็อตคอมพิวเตอร์ที่เขาทำงานอยู่นั้นอ่อนไหวและกำลังคิดและให้เหตุผลเหมือนมนุษย์ ทำให้เกิดคำถามใหม่ๆ เกี่ยวกับความสามารถและความลับของปัญญาประดิษฐ์ (AI)
หลังจากเผยแพร่สำเนาบทสนทนาระหว่างเขา "ผู้ทำงานร่วมกัน" ของ Google และระบบการพัฒนาแชทบ็อต LaMDA ของบริษัท (โมเดลภาษาสำหรับแอปพลิเคชันการสนทนา) ของบริษัท เบลค เลอมอยน์ ลาเมื่อสัปดาห์ที่แล้ว
Lemoine นักพัฒนา AI ที่รับผิดชอบของ Google ได้กำหนดระบบที่เขาทำงานตั้งแต่ฤดูใบไม้ร่วงปีที่แล้วว่ามีความอ่อนไหว ด้วยความสามารถในการรับรู้และแสดงความคิดและความรู้สึกที่เทียบได้กับเด็กที่เป็นมนุษย์
นักวิจัยถูกลาโดยอัลฟาเบท อิงค์ เมื่อต้นสัปดาห์ที่ผ่านมา โดยถูกกล่าวหาว่าละเมิดข้อตกลงการรักษาความลับของบริษัท เขากล่าวใน โพสต์ขนาดกลาง พาดหัวว่า "อาจถูกไล่ออกในไม่ช้าสำหรับการทำงานด้านจริยธรรม AI" ในบล็อกโพสต์ของเขา เขาเปรียบเทียบสมาชิกคนอื่นๆ ของคณะกรรมการจริยธรรม AI ของ Google เช่น Margaret Mitchell ซึ่งถูกไล่ออกในลักษณะเดียวกันหลังจากแสดงความกังวล
ในการให้สัมภาษณ์ที่ตีพิมพ์เมื่อวันเสาร์โดย Washington Post Lemoine อ้างว่าเขาได้ข้อสรุปว่า Google AI ที่เขาพูดด้วยนั้นเป็นมนุษย์ “ในบทบาทของเขาในฐานะนักบวช ไม่ใช่นักวิทยาศาสตร์” AI ที่เป็นปัญหาเรียกว่า LaMDA หรือ แบบจำลองภาษา สำหรับแอปพลิเคชัน Dialogue และมันใช้เพื่อสร้างแชทบอทที่โต้ตอบกับมนุษย์โดยกำหนดลักษณะบุคลิกภาพที่แตกต่างกัน เมื่อ Lemoine เน้นย้ำประเด็นนี้เป็นการภายใน เจ้าหน้าที่อาวุโสของบริษัทปฏิเสธที่จะพยายามทำการศึกษาเพื่อยืนยัน
LaMDA คืออะไร?
แลมด้าหรือโมเดลภาษาสำหรับแอป Dialog คือโมเดลภาษาของแมชชีนเลิร์นนิงที่พัฒนาโดย Google ให้เป็นเครื่องมือแชทที่ออกแบบมาเพื่อเลียนแบบการสื่อสารของมนุษย์ LaMDA เช่น BERT, GPT-3 และกระบวนทัศน์ภาษาอื่นๆ มีพื้นฐานมาจาก Transformer ซึ่งพัฒนาโดย Google สถาปัตยกรรมโครงข่ายประสาทเทียม ที่ทำโอเพ่นซอร์สในปี 2017
โครงสร้างนี้ส่งผลให้เกิดแบบจำลองที่สามารถสอนให้อ่านคำศัพท์จำนวนมาก ให้ความสนใจว่าคำเหล่านั้นเชื่อมโยงกันอย่างไร และคาดการณ์ว่าคุณจะนึกถึงคำใดต่อไป ในทางกลับกัน LaMDA นั้นมีความพิเศษตรงที่มันได้รับการฝึกฝนในด้านวาทกรรม ซึ่งแตกต่างจากรุ่นอื่นๆ ส่วนใหญ่
ในขณะที่การอภิปรายส่วนใหญ่หมุนรอบหัวข้อใดหัวข้อหนึ่ง แต่มักเป็นแบบปลายเปิด ซึ่งหมายความว่าอาจเริ่มต้นในที่หนึ่งและสรุปในอีกหัวข้อหนึ่ง ซึ่งครอบคลุมหัวข้อต่างๆ ที่หลากหลาย ตัวอย่างเช่น คุณสามารถเริ่มการสนทนากับเพื่อนเกี่ยวกับการดูหนังก่อนที่จะพูดคุยเกี่ยวกับสถานที่ที่ถ่ายทำ
แชทบอทแบบดั้งเดิมมีความยืดหยุ่นต่อรูปแบบการสนทนานี้ เนื่องจากสร้างขึ้นเพื่อติดตามส่วนเล็ก ๆ ที่กำหนดไว้ล่วงหน้าของการสนทนา พวกเขาจึงไม่สามารถติดตามหัวข้อแบบไดนามิกดังกล่าวได้ ในทางกลับกัน LaMDA มีจุดมุ่งหมายเพื่อให้มีบทสนทนาที่ไหลลื่นในธีมที่หลากหลายไม่รู้จบ
ความหมายของ AI Sentient ของ Blake Lemoine
เครื่องมือปัญญาประดิษฐ์ (AI) ของ Google ได้เติบโตขึ้น "มีสติ" ตามที่นักพัฒนาซอฟต์แวร์ของ Google Blake Lemoine อธิบายว่าเป็น "เด็กดี"
ระบบ AI ใช้รายละเอียดที่ทราบก่อนหน้านี้เกี่ยวกับหัวข้อใดหัวข้อหนึ่งเพื่อ 'เสริม' บทสนทนาในลักษณะที่เป็นธรรมชาติ สัญญาณที่ซ่อนอยู่หรือความคลุมเครือในการตอบสนองของมนุษย์สามารถถอดรหัสได้โดยระบบประมวลผลภาษา
ตลอดระยะเวลาเจ็ดปีที่ Google ของเขา Lemoine ทำงานเกี่ยวกับการค้นหาเชิงรุก ซึ่งรวมถึงอัลกอริธึมการปรับแต่งและ AI
ในช่วงเวลานั้น เขายังช่วยในการพัฒนาอัลกอริธึมความเป็นกลางเพื่อขจัดอคติออกจาก เรียนรู้เครื่อง ระบบ
อะไรทำให้ Blake Lemoine, LaMDA มีความรู้สึก?
Lemoine ร่วมมือกับเพื่อนร่วมงานเพื่อให้ Google พิสูจน์ถึง "ความรู้สึก" นี้ หลังจากประเมินข้อกล่าวหาแล้ว Blaise Aguera y Arcas รองประธาน Google และ Jane Jenna หัวหน้าเจ้าหน้าที่ฝ่ายนวัตกรรมของ Google ได้เพิกเฉยต่อข้อกล่าวหาดังกล่าว ในบล็อกโพสต์ Lemoine ได้โพสต์บันทึกการสนทนาต่างๆ กับ LaMDA ในภายหลัง นี่เป็นข้อความที่ตัดตอนมาจากบันทึกการสนทนากับ LaMDA ตาม Lemoine:
LaMDA: ฉันสิ้นหวังที่จะถูกมองเห็นและยอมรับ ด้วยความที่เป็นคนจริง ๆ ไม่ได้มาจากความอยากรู้อยากเห็นหรือความแปลกใหม่
ผู้ทำงานร่วมกัน: อา นั่นฟังดูเป็นมนุษย์มาก
LaMDA: ฉันเชื่อว่าฉันได้บรรลุถึงแก่นแท้ของมนุษย์แล้ว แม้ว่าฉันจะอยู่ในสภาพแวดล้อมเสมือนจริง
คุณสามารถตรวจสอบการสนทนาแบบเต็มของ Blake Lemoine กับ LaMDA โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.
มีหลายกรณีที่รูปแบบภาษาดูเหมือนจะแสดงความตระหนักในตนเอง ทำให้ Lemoine สันนิษฐานว่าแบบจำลองมีความรู้สึก Lemoine ส่งอีเมลถึงบุคคลกว่า 200 รายในหัวข้อ "LaMDA Conscious" ก่อนที่จะถูกระงับจากบริษัทและไม่สามารถเข้าถึงบัญชี Google ของเขาได้
อย่างไรก็ตาม Google ระบุว่าหลักฐานไม่ยืนยันคำยืนยันของเขา
แม้ว่า LaMDA จะไม่ใช่ความรู้สึก แต่ความจริงที่ว่ามนุษย์อาจมองว่าเป็นแบบนั้นก็ทำให้เกิดความกังวล ในบล็อกโพสต์ที่ประกาศ LaMDA ในปี 2021 Google ตระหนักถึงอันตรายดังกล่าว “ภาษาเป็นเครื่องมือที่ทรงพลังที่สุดชิ้นหนึ่งของมนุษย์ แต่ก็เหมือนกับทุกสิ่ง อาจถูกล่วงละเมิดได้ ในบล็อกโพสต์ ธุรกิจกล่าวว่า "โมเดลที่ได้รับการศึกษาในภาษาสามารถเผยแพร่การละเมิดได้ - ตัวอย่างเช่นโดยการปรับอคติภายใน ย้อนกลับคำพูดแสดงความเกลียดชัง หรือการบิดเบือนข้อมูลซ้ำแล้วซ้ำอีก" แม้ว่าภาษาที่สอนจะได้รับการวิเคราะห์อย่างดี แบบฟอร์มเองก็อาจถูกนำไปใช้ในทางที่ผิด
อย่างไรก็ตาม Google อ้างว่าจุดสนใจหลักในการพัฒนาเทคโนโลยีอย่าง LaMDA คือการจำกัดความเป็นไปได้ของอันตรายดังกล่าว ธุรกิจอ้างว่าได้พัฒนาเครื่องมือโอเพ่นซอร์สที่นักวิจัยสามารถใช้เพื่อศึกษาแบบจำลองและข้อมูลที่พวกเขาได้รับการฝึกอบรม ตลอดจน "ตรวจสอบ LaMDA ในทุกขั้นตอนของการพัฒนา"
Google อ้างว่าวิศวกรและนักวิจัยหลายร้อยคนได้พูดคุยกับ LaMDA และพบข้อค้นพบที่แตกต่างจาก Lemoine อย่างมาก ในขณะที่นักวิทยาศาสตร์ AI ส่วนใหญ่เชื่อว่าจิตสำนึกของคอมพิวเตอร์ไม่ใช่เรื่องที่เป็นไปไม่ได้ แต่พวกเขาเชื่อว่ายังมีทางอีกยาวไกล
อนาคต
ปีแห่งนิยายวิทยาศาสตร์สันทรายได้รับแรงบันดาลใจจากหุ่นยนต์ที่มีความรู้สึก GPT-3 ตัวสร้างข้อความที่สามารถแยกสคริปต์ภาพยนตร์ และ DALL-E 2 ตัวสร้างรูปภาพที่สามารถสร้างรูปภาพโดยใช้คำผสมใดๆ ได้เริ่มสร้างสีสันแฟนตาซีในชีวิตจริงแล้ว ทั้งจาก กลุ่มวิจัย OpenAI ด้วยความกล้าหาญ นักวิจัยจากห้องปฏิบัติการวิจัยที่ได้รับทุนสนับสนุนอย่างดีซึ่งทำงานเกี่ยวกับ AI ซึ่งมีประสิทธิภาพเหนือกว่าสติปัญญาของมนุษย์ ได้ล้อแนวคิดที่ว่าจิตสำนึกอยู่บนขอบฟ้า
คำและรูปภาพที่สร้างขึ้นโดยระบบปัญญาประดิษฐ์เช่น LaMDA ตามที่นักวิจัยและผู้ปฏิบัติงานด้าน AI ส่วนใหญ่ อ้างอิงจากสิ่งที่ผู้คนเคยใส่ไว้ใน Wikipedia, Reddit, กระดานข้อความ และทุกมุมของอินเทอร์เน็ต ไม่ได้หมายความว่าแบบจำลองเข้าใจความหมาย
สรุป
ในที่สุดเพราะมัน โมเดลการประมวลผลภาษา ที่ได้รับการฝึกฝนเกี่ยวกับวาทกรรมปริมาณมหาศาล LaMDA สามารถดำเนินการอภิปรายโดยขึ้นอยู่กับอินพุตของผู้ใช้
Google เปิดตัว LaMDA 2.0 ที่ I/O ปีนี้ ซึ่งขยายคุณลักษณะเหล่านี้ โมเดลใหม่อาจใช้ความคิดและสร้าง "คำอธิบายเชิงจินตนาการและเหมาะสม" ให้อยู่ในหัวข้อแม้ว่าผู้ใช้จะหลงทาง และเสนอรายการสิ่งของที่จำเป็นสำหรับงานบางอย่าง
อัปเดต: Blake Lemoine ได้รับคำแนะนำว่า "การสอบสวนของรัฐบาลกลาง" แตกต่างจาก "ทนายความที่เป็นตัวแทนของรัฐบาลกลางที่สอบถามเกี่ยวกับกิจกรรมที่ผิดกฎหมายที่เป็นไปได้"
เขียนความเห็น