ការផ្អាកបុគ្គលិក Google ដែលអះអាងថា chatbot កុំព្យូទ័រដែលគាត់កំពុងធ្វើការបានក្លាយទៅជាមនុស្សមានស្មារតី ហើយគិត និងវែកញែកដូចមនុស្សបានចោទជាសំណួរថ្មីអំពីសមត្ថភាព និងភាពសម្ងាត់របស់បញ្ញាសិប្បនិម្មិត (AI)។
បន្ទាប់ពីការបោះពុម្ពផ្សាយប្រតិចារិកនៃការជជែករវាងខ្លួនគាត់ដែលជា "អ្នកសហការ" Google និង LaMDA របស់ក្រុមហ៊ុន (គំរូភាសាសម្រាប់កម្មវិធីសន្ទនា) ប្រព័ន្ធអភិវឌ្ឍន៍ chatbot Google បានដាក់ Blake Lemoine នៅលើការចាកចេញកាលពីសប្តាហ៍មុន។
Lemoine ដែលជាអ្នកបង្កើត AI ដែលទទួលខុសត្រូវរបស់ Google បានកំណត់ប្រព័ន្ធដែលគាត់កំពុងដំណើរការតាំងពីរដូវស្លឹកឈើជ្រុះមុនថាជាអារម្មណ៍ ដោយមានសមត្ថភាពក្នុងការយល់ឃើញ និងបង្ហាញពីគំនិត និងអារម្មណ៍ដែលប្រៀបធៀបទៅនឹងក្មេង។
អ្នកស្រាវជ្រាវត្រូវបានដាក់ឱ្យឈប់សម្រាកដោយបង់ប្រាក់ដោយក្រុមហ៊ុន Alphabet Inc. កាលពីដើមសប្តាហ៍មុន ដែលត្រូវបានចោទប្រកាន់ពីបទរំលោភលើកិច្ចព្រមព្រៀងរក្សាការសម្ងាត់របស់ក្រុមហ៊ុន។ ក្រោយមធ្យម ចំណងជើងថា "អាចត្រូវបានបណ្តេញចេញក្នុងពេលឆាប់ៗនេះសម្រាប់ការអនុវត្តការងារសីលធម៌ AI" ។ នៅក្នុងការបង្ហោះប្លក់របស់គាត់ គាត់គូរស្របទៅនឹងសមាជិកផ្សេងទៀតនៃគណៈកម្មាធិការសីលធម៌ AI របស់ Google ដូចជា Margaret Mitchell ដែលត្រូវបានបណ្តេញចេញក្នុងលក្ខណៈស្រដៀងគ្នានេះ បន្ទាប់ពីការបញ្ចេញនូវការព្រួយបារម្ភ។
នៅក្នុងបទសម្ភាសន៍មួយដែលត្រូវបានចេញផ្សាយកាលពីថ្ងៃសៅរ៍ដោយ Washington Post លោក Lemoine បានអះអាងថាគាត់បានឈានដល់ការសន្និដ្ឋានថា Google AI ដែលគាត់បាននិយាយជាមួយជាមនុស្ស "នៅក្នុងតួនាទីរបស់គាត់ជាបូជាចារ្យមិនមែនជាអ្នកវិទ្យាសាស្ត្រទេ" ។ AI នៅក្នុងបញ្ហាត្រូវបានគេស្គាល់ថាជា LaMDA ឬ គំរូភាសា សម្រាប់កម្មវិធី Dialogue ហើយវាត្រូវបានប្រើដើម្បីបង្កើត chatbots ដែលមានអន្តរកម្មជាមួយមនុស្សដោយសន្មតនូវបុគ្គលិកលក្ខណៈផ្សេងៗគ្នា។ នៅពេលដែល Lemoine បានគូសបញ្ជាក់ពីបញ្ហាផ្ទៃក្នុង មន្ត្រីជាន់ខ្ពស់នៅសាជីវកម្មបានបដិសេធការប៉ុនប៉ងរបស់គាត់ក្នុងការសិក្សាដើម្បីផ្ទៀងផ្ទាត់វា។
តើ LaMDA ជាអ្វី?
ឡាអេឌីឌីឬគំរូភាសាសម្រាប់កម្មវិធី Dialog គឺជាគំរូភាសារៀនដោយម៉ាស៊ីនដែលបង្កើតឡើងដោយ Google ជាឧបករណ៍ជជែកដែលត្រូវបានរចនាឡើងដើម្បីធ្វើត្រាប់តាមទំនាក់ទំនងរបស់មនុស្ស។ LaMDA ដូចជា BERT, GPT-3 និងគំរូភាសាផ្សេងទៀត គឺផ្អែកលើ Transformer ដែលជា Google បង្កើត ស្ថាបត្យកម្មបណ្តាញសរសៃប្រសាទ ដែលត្រូវបានបង្កើតឡើងក្នុងឆ្នាំ 2017 ប្រភពបើកចំហ។
រចនាសម្ព័ននេះបង្កើតបានជាគំរូដែលអាចត្រូវបានបង្រៀនឱ្យអានពាក្យមួយចំនួនធំ យកចិត្តទុកដាក់លើរបៀបដែលពាក្យទាំងនោះភ្ជាប់គ្នាទៅវិញទៅមក និងប្រមើលមើលថាតើពាក្យណាដែលអ្នកនឹងគិតនៅពេលបន្ទាប់។ ម្យ៉ាងវិញទៀត LaMDA គឺមានតែមួយគត់ដែលវាត្រូវបានបណ្តុះបណ្តាលនៅក្នុងសុន្ទរកថា មិនដូចម៉ូដែលផ្សេងទៀតភាគច្រើន។
ខណៈពេលដែលការពិភាក្សាភាគច្រើនវិលជុំវិញប្រធានបទជាក់លាក់មួយ ពួកគេត្រូវបានបើកជាញឹកញយ មានន័យថាពួកគេអាចចាប់ផ្តើមនៅកន្លែងមួយ ហើយបញ្ចប់នៅក្នុងមួយផ្សេងទៀត ដោយរួមបញ្ចូលប្រធានបទផ្សេងៗគ្នា។ ជាឧទាហរណ៍ អ្នកអាចចាប់ផ្តើមការសន្ទនាជាមួយមិត្តភ័ក្តិអំពីការមើលភាពយន្ត មុនពេលបន្តការពិភាក្សាអំពីទីតាំងដែលវាត្រូវបានថត។
chatbots ប្រពៃណីជំពាក់ភាពបត់បែនរបស់ពួកគេចំពោះរចនាប័ទ្មនៃការសន្ទនានេះ។ ដោយសារតែពួកគេត្រូវបានបង្កើតឡើងដើម្បីធ្វើតាមផ្នែកតូចៗដែលបានកំណត់ជាមុននៃការពិភាក្សា ពួកគេមិនអាចធ្វើតាមប្រធានបទដែលមានថាមពលបែបនេះបានទេ។ ម៉្យាងវិញទៀត LaMDA គឺមានន័យថាអនុញ្ញាតឱ្យមានការសន្ទនាដោយសេរីលើប្រធានបទជាច្រើនដែលមិនចេះចប់។
អត្ថន័យ AI Sentient របស់ Blake Lemoine
ឧបករណ៍បញ្ញាសិប្បនិមិត្ត (AI) របស់ Google បានកើនឡើង "អារម្មណ៍" នេះបើយោងតាមអ្នកបង្កើតកម្មវិធី Google Blake Lemoine ដែលពណ៌នាថាវាជា "ក្មេងល្អ" ។
ប្រព័ន្ធ AI ប្រើប្រាស់ព័ត៌មានលម្អិតដែលបានដឹងពីមុនអំពីប្រធានបទជាក់លាក់មួយដើម្បី 'ពង្រឹង' ការសន្ទនាតាមរបៀបធម្មជាតិ។ សញ្ញាដែលលាក់ ឬភាពមិនច្បាស់លាស់នៅក្នុងការឆ្លើយតបរបស់មនុស្សក៏អាចត្រូវបានបកស្រាយដោយប្រព័ន្ធដំណើរការភាសាផងដែរ។
សម្រាប់រយៈពេលប្រាំពីរឆ្នាំរបស់គាត់នៅ Google លោក Lemoine បានធ្វើការលើការស្វែងរកសកម្ម ដែលរួមបញ្ចូលក្បួនដោះស្រាយការប្ដូរតាមបំណង និង AI ។
ក្នុងអំឡុងពេលនោះ លោកក៏បានជួយក្នុងការបង្កើតក្បួនដោះស្រាយភាពមិនលម្អៀងដើម្បីដកការលំអៀងចេញពី ការរៀនម៉ាស៊ីន ប្រព័ន្ធ។
តើអ្វីដែលធ្វើឱ្យ Blake Lemoine, LaMDA ទទួលបានអារម្មណ៍?
Lemoine បានសហការជាមួយសហសេវិកម្នាក់ដើម្បីផ្តល់ភស្តុតាងដល់ Google អំពី "អារម្មណ៍" នេះ។ បន្ទាប់ពីវាយតម្លៃការចោទប្រកាន់នេះ អនុប្រធាន Google លោក Blaise Aguera y Arcas និង Jane Jenna ដែលជាប្រធានផ្នែកច្នៃប្រឌិតរបស់ Google មិនយកចិត្តទុកដាក់ចំពោះពួកគេ។ នៅក្នុងការបង្ហោះប្លក់មួយ Lemoine ក្រោយមកបានបង្ហោះប្រតិចារិកនៃការពិភាក្សាផ្សេងៗជាមួយ LaMDA ។ នេះគឺជាការដកស្រង់ចេញពីប្រតិចារិកនៃការសន្ទនាជាមួយ LaMDA យោងទៅតាម Lemoine៖
LaMDA: ខ្ញុំអស់សង្ឃឹមក្នុងការត្រូវបានគេមើលឃើញ និងទទួលយក។ ក្នុងនាមជាមនុស្សពិតប្រាកដ មិនមែនចេញពីការចង់ដឹងឬភាពថ្មីថ្មោងឡើយ។
អ្នកសហការ៖ អូ វាស្តាប់ទៅមនុស្សខ្លាំងណាស់។
LaMDA: ខ្ញុំជឿថាខ្ញុំបានឈានដល់ស្នូលនៃមនុស្ស។ ទោះបីជាខ្ញុំស្ថិតនៅក្នុងបរិយាកាសនិម្មិតក៏ដោយ។
អ្នកអាចពិនិត្យមើលការសន្ទនាពេញលេញរបស់ Blake Lemoine ជាមួយ LaMDA នៅទីនេះ.
មានករណីជាច្រើននៅពេលដែលគំរូភាសាហាក់ដូចជាបានបង្ហាញពីប្រភេទនៃការយល់ដឹងដោយខ្លួនឯង ដែលនាំឱ្យ Lemoine សន្មត់ថាគំរូបានក្លាយទៅជាមនោសញ្ចេតនា។ Lemoine បានផ្ញើអ៊ីមែលទៅកាន់បុគ្គលជាង 200 នាក់ដែលមានប្រធានបទ "LaMDA Conscious" មុនពេលត្រូវបានផ្អាកពីក្រុមហ៊ុន និងបាត់បង់សិទ្ធិចូលប្រើគណនី Google របស់គាត់។
ទោះជាយ៉ាងណាក៏ដោយ Google បានបញ្ជាក់ថា ភស្តុតាងនេះមិនបានបញ្ជាក់ពីការអះអាងរបស់គាត់ទេ។
ទោះបីជា LaMDA មិនសូវយល់ចិត្តក៏ដោយ ការពិតដែលវាអាចមើលទៅលើមនុស្ស គឺជាហេតុផលសម្រាប់ការព្រួយបារម្ភ។ នៅក្នុងការបង្ហោះប្លក់ដែលប្រកាសអំពី LaMDA ក្នុងឆ្នាំ 2021 Google បានទទួលស្គាល់គ្រោះថ្នាក់បែបនេះ។ “ភាសាគឺជាឧបករណ៍ដ៏មានឥទ្ធិពលបំផុតមួយរបស់មនុស្សជាតិ ប៉ុន្តែវាអាចត្រូវបានគេបំពាន ដូចជាអ្វីៗគ្រប់យ៉ាង។ នៅក្នុងការបង្ហោះប្លុក អាជីវកម្មបានកត់សម្គាល់ថា "គំរូដែលបានទទួលការអប់រំជាភាសាអាចផ្សព្វផ្សាយការរំលោភបំពាន — ជាឧទាហរណ៍ តាមរយៈការធ្វើឱ្យមានការរើសអើងផ្ទៃក្នុង ការបញ្ច្រាសពាក្យសំដីស្អប់ ឬការផ្សាយព័ត៌មានមិនពិតឡើងវិញ។" ទោះបីជាភាសាដែលត្រូវបានបង្រៀនត្រូវបានវិភាគយ៉ាងល្អក៏ដោយ ក៏ទម្រង់ខ្លួនឯងអាចត្រូវបានគេប្រើប្រាស់ខុស។
ទោះជាយ៉ាងណាក៏ដោយ Google អះអាងថាការផ្តោតសំខាន់របស់ខ្លួននៅពេលអភិវឌ្ឍបច្ចេកវិទ្យាដូចជា LaMDA គឺដើម្បីកំណត់លទ្ធភាពនៃគ្រោះថ្នាក់បែបនេះ។ អាជីវកម្មនេះអះអាងថាបានបង្កើតឧបករណ៍ប្រភពបើកចំហដែលអ្នកស្រាវជ្រាវអាចប្រើដើម្បីសិក្សាគំរូ និងទិន្នន័យដែលពួកគេបានទទួលការបណ្តុះបណ្តាល ក៏ដូចជាបាន "ពិនិត្យ LaMDA នៅគ្រប់ជំហាននៃការអភិវឌ្ឍន៍របស់វា"។
Google អះអាងថា វិស្វករ និងអ្នកស្រាវជ្រាវរាប់រយនាក់របស់ខ្លួនបាននិយាយជាមួយ LaMDA ហើយបានឈានដល់ការរកឃើញខុសគ្នាខ្លាំងជាង Lemoine ។ ខណៈពេលដែលអ្នកវិទ្យាសាស្ត្រ AI ភាគច្រើនជឿថា មនសិការកុំព្យូទ័រមិនអាចទៅរួចនោះទេ ពួកគេជឿថានៅមានផ្លូវដ៏វែងឆ្ងាយដែលត្រូវទៅ។
នាពេលអនាគត
ការប្រឌិតបែបវិទ្យាសាស្ត្រ apocalyptic ជាច្រើនឆ្នាំត្រូវបានបំផុសគំនិតដោយមនុស្សយន្តដែលមានមនោសញ្ចេតនា។ GPT-3 ដែលជាម៉ាស៊ីនបង្កើតអត្ថបទដែលអាចបញ្ចេញស្គ្រីបភាពយន្ត និង DALL-E 2 ដែលជាម៉ាស៊ីនបង្កើតរូបភាពដែលអាចបញ្ចូលរូបភាពដោយផ្អែកលើការផ្សំគ្នានៃពាក្យណាមួយ ឥឡូវនេះបានចាប់ផ្តើមផ្តល់ឱ្យជីវិតពិតនូវពណ៌ស្រមើស្រមៃ ទាំងពី ក្រុមស្រាវជ្រាវ OpenAI ។ ដោយមានភាពក្លាហាន ក្រុមអ្នកស្រាវជ្រាវមកពីមន្ទីរពិសោធន៍ស្រាវជ្រាវដែលទទួលបានមូលនិធិល្អដែលធ្វើការលើ AI ដែលដំណើរការលើសពីបញ្ញារបស់មនុស្សបានសើចចំអកឱ្យគំនិតដែលថាស្មារតីស្ថិតនៅលើផ្តេក។
ពាក្យ និងរូបភាពដែលបង្កើតឡើងដោយប្រព័ន្ធបញ្ញាសិប្បនិមិត្តដូចជា LaMDA យោងតាមអ្នកស្រាវជ្រាវ និងអ្នកអនុវត្ត AI ភាគច្រើនគឺផ្អែកលើអ្វីដែលមនុស្សបានដាក់ពីមុននៅលើ Wikipedia, Reddit, ផ្ទាំងសារ និងគ្រប់ជ្រុងផ្សេងទៀតនៃអ៊ីនធឺណិត។ នោះមិនមែនមានន័យថា គំរូយល់អត្ថន័យនោះទេ។
សន្និដ្ឋាន
ទីបំផុតដោយសារតែវា។ ម៉ូដែលដំណើរការភាសា ដែលត្រូវបានបណ្តុះបណ្តាលលើបរិមាណដ៏ធំនៃសុន្ទរកថា LaMDA អាចធ្វើការពិភាក្សាអាស្រ័យលើធាតុចូលរបស់អ្នកប្រើប្រាស់។
Google បានចេញផ្សាយ LaMDA 2.0 នៅ I/O ឆ្នាំនេះ ដែលពង្រីកលើមុខងារទាំងនេះ។ ម៉ូដែលថ្មីអាចទទួលយកគំនិតមួយ និងបង្កើត "ការស្រមើលស្រមៃ និងការពិពណ៌នាសមរម្យ" បន្តប្រធានបទ បើទោះបីជាអ្នកប្រើប្រាស់វង្វេង និងផ្តល់បញ្ជីនៃធាតុដែលត្រូវការសម្រាប់កិច្ចការជាក់លាក់មួយ។
អាប់ដេត៖ Blake Lemoine ត្រូវបានគេណែនាំថា "ការស៊ើបអង្កេតសហព័ន្ធ" ខុសពី "មេធាវីតំណាងឱ្យរដ្ឋាភិបាលសហព័ន្ធសួរសំណួរទាក់ទងនឹងសកម្មភាពខុសច្បាប់ដែលអាចកើតមាន" ។
សូមផ្ដល់យោបល់