តើយើងធ្វើយ៉ាងណាឱ្យប្រាកដថាយើងប្រើ AI ដោយការទទួលខុសត្រូវ?
ភាពជឿនលឿនក្នុងការរៀនម៉ាស៊ីនបង្ហាញថា គំរូអាចធ្វើមាត្រដ្ឋានបានយ៉ាងឆាប់រហ័ស និងប៉ះពាល់ដល់ផ្នែកដ៏ធំមួយនៃសង្គម។
ក្បួនដោះស្រាយគ្រប់គ្រងព័ត៌មានព័ត៌មាននៅលើទូរស័ព្ទរបស់អ្នកគ្រប់គ្នា។ រដ្ឋាភិបាល និងសាជីវកម្មកំពុងចាប់ផ្តើមប្រើប្រាស់ AI ដើម្បីធ្វើការសម្រេចចិត្តដែលមានព័ត៌មាន។
នៅពេលដែល AI កាន់តែមានមូលដ្ឋាននៅក្នុងរបៀបដែលពិភពលោកដំណើរការ តើយើងធ្វើដូចម្តេចដើម្បីប្រាកដថា AI ដំណើរការដោយយុត្តិធម៌?
នៅក្នុងអត្ថបទនេះ យើងនឹងពិនិត្យមើលបញ្ហាប្រឈមខាងសីលធម៌នៃការប្រើប្រាស់ AI និងមើលថាតើយើងអាចធ្វើអ្វីបានដើម្បីធានាបាននូវការប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវរបស់ AI ។
តើ Ethical AI ជាអ្វី?
Ethical AI សំដៅលើបញ្ញាសិប្បនិម្មិតដែលប្រកាន់ខ្ជាប់នូវគោលការណ៍ណែនាំសីលធម៌ជាក់លាក់មួយ។
ម្យ៉ាងវិញទៀត វាជាមធ្យោបាយសម្រាប់បុគ្គល និងអង្គការនានាក្នុងការធ្វើការជាមួយ AI ក្នុងលក្ខណៈប្រកបដោយការទទួលខុសត្រូវ។
ក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ សាជីវកម្មបានចាប់ផ្តើមប្រកាន់ខ្ជាប់នូវច្បាប់ឯកជនភាពទិន្នន័យ បន្ទាប់ពីភស្តុតាងនៃការរំលោភបំពាន និងការបំពានបានលេចចេញជារូបរាង។ ដូចគ្នានេះដែរ គោលការណ៍ណែនាំសម្រាប់ AI ប្រកបដោយក្រមសីលធម៌ត្រូវបានណែនាំ ដើម្បីធ្វើឱ្យប្រាកដថា AI មិនប៉ះពាល់អវិជ្ជមានដល់សង្គម។
ជាឧទាហរណ៍ ប្រភេទ AI មួយចំនួនដំណើរការក្នុងលក្ខណៈលំអៀង ឬបន្តភាពលំអៀងដែលមានស្រាប់។ ចូរយើងពិចារណាអំពីក្បួនដោះស្រាយដែលជួយអ្នកជ្រើសរើសឱ្យតម្រៀបតាមប្រវត្តិរូបរាប់ពាន់។ ប្រសិនបើក្បួនដោះស្រាយត្រូវបានបណ្តុះបណ្តាលលើសំណុំទិន្នន័យដែលមានបុគ្គលិកជាបុរស ឬជនជាតិស្បែកស នោះវាអាចទៅរួចដែលថាក្បួនដោះស្រាយនឹងពេញចិត្តអ្នកដាក់ពាក្យដែលស្ថិតនៅក្រោមប្រភេទទាំងនោះ។
ការបង្កើតគោលការណ៍សម្រាប់ AI សីលធម៌
យើងបានគិតអំពីការបង្កើតច្បាប់មួយដែលត្រូវដាក់ ក្លែងបន្លំ អស់ជាច្រើនទសវត្ស។
សូម្បីតែនៅក្នុងទសវត្សរ៍ឆ្នាំ 1940 នៅពេលដែលកុំព្យូទ័រដែលមានថាមពលខ្លាំងបំផុតអាចធ្វើការគណនាតាមបែបវិទ្យាសាស្ត្របានយ៉ាងពិសេសបំផុត អ្នកនិពន្ធប្រឌិតបែបវិទ្យាសាស្ត្របានពិចារណាលើគំនិតនៃការគ្រប់គ្រងមនុស្សយន្តឆ្លាតវៃ។
លោក Isaac Asimov បានបង្កើតច្បាប់មនុស្សយន្តចំនួនបី ដែលគាត់បានស្នើឡើងត្រូវបានបញ្ចូលទៅក្នុងកម្មវិធីមនុស្សយន្តនៅក្នុងរឿងខ្លីរបស់គាត់ជាលក្ខណៈពិសេសសុវត្ថិភាព។
ច្បាប់ទាំងនេះបានក្លាយទៅជាចំណុចស្នូលនៃរឿងរ៉ាវវិទ្យាសាស្ត្រនាពេលអនាគតជាច្រើន ហើយថែមទាំងបានជូនដំណឹងដល់ការសិក្សាជាក់ស្តែងអំពីក្រមសីលធម៌របស់ AI ផងដែរ។
នៅក្នុងការស្រាវជ្រាវសហសម័យ អ្នកស្រាវជ្រាវ AI កំពុងស្វែងរកប្រភពមូលដ្ឋានបន្ថែមទៀតដើម្បីបង្កើតបញ្ជីគោលការណ៍សម្រាប់ AI ប្រកបដោយក្រមសីលធម៌។
ដោយសារ AI នៅទីបំផុតនឹងប៉ះពាល់ដល់ជីវិតមនុស្ស យើងត្រូវតែមានការយល់ដឹងជាមូលដ្ឋានអំពីអ្វីដែលយើងគួរ និងមិនគួរធ្វើ។
របាយការណ៍ Belmont
សម្រាប់ចំណុចយោង អ្នកស្រាវជ្រាវក្រមសីលធម៌មើលទៅក្នុងរបាយការណ៍ Belmont ជាការណែនាំ។ នេះ។ របាយការណ៍ Belmont គឺជាឯកសារដែលបានបោះពុម្ពផ្សាយដោយវិទ្យាស្ថានសុខភាពជាតិអាមេរិកក្នុងឆ្នាំ 1979។ អំពើឃោរឃៅផ្នែកជីវសាស្រ្តដែលបានធ្វើឡើងនៅក្នុង WW2 បាននាំឱ្យមានការជំរុញឱ្យបង្កើតច្បាប់ណែនាំអំពីក្រមសីលធម៌សម្រាប់អ្នកស្រាវជ្រាវដែលអនុវត្តឱសថ។
នេះជាគោលការណ៍គ្រឹះចំនួនបីដែលបានលើកឡើងក្នុងរបាយការណ៍៖
- ការគោរពចំពោះបុគ្គល
- អត្ថប្រយោជន៍
- យុត្តិធម៍
នាយកសាលាទីមួយមានគោលបំណងលើកតម្កើងសេចក្តីថ្លៃថ្នូរ និងស្វ័យភាពនៃមុខវិជ្ជាទាំងអស់របស់មនុស្ស។ ជាឧទាហរណ៍ អ្នកស្រាវជ្រាវគួរតែកាត់បន្ថយអ្នកចូលរួមដែលបោកបញ្ឆោតឱ្យតិចបំផុត ហើយគួរតែតម្រូវឱ្យមនុស្សម្នាក់ៗផ្តល់ការយល់ព្រមច្បាស់លាស់របស់ពួកគេ។
គោលការណ៍ទីពីរ អត្ថប្រយោជន៍ ផ្តោតលើកាតព្វកិច្ចរបស់អ្នកស្រាវជ្រាវ ដើម្បីកាត់បន្ថយគ្រោះថ្នាក់ដែលអាចកើតមានចំពោះអ្នកចូលរួម។ គោលការណ៍នេះផ្តល់ឱ្យអ្នកស្រាវជ្រាវនូវកាតព្វកិច្ចក្នុងការធ្វើឱ្យមានតុល្យភាពសមាមាត្រនៃហានិភ័យបុគ្គលចំពោះអត្ថប្រយោជន៍សង្គមដែលមានសក្តានុពល។
យុត្តិធម៍ ដែលជាគោលការណ៍ចុងក្រោយដែលដាក់ចេញដោយរបាយការណ៍ Belmont ផ្តោតលើការចែកចាយហានិភ័យ និងអត្ថប្រយោជន៍ស្មើគ្នានៅទូទាំងក្រុមដែលអាចទទួលបានអត្ថប្រយោជន៍ពីការស្រាវជ្រាវ។ អ្នកស្រាវជ្រាវមានកាតព្វកិច្ចជ្រើសរើសមុខវិជ្ជាស្រាវជ្រាវពីប្រជាជនទូលំទូលាយ។ ការធ្វើដូច្នេះនឹងកាត់បន្ថយភាពលំអៀងបុគ្គល និងជាប្រព័ន្ធ ដែលអាចជះឥទ្ធិពលអវិជ្ជមានដល់សង្គម។
ការដាក់ក្រមសីលធម៌ក្នុងការស្រាវជ្រាវ AI
ខណៈពេលដែលរបាយការណ៍ Belmont ត្រូវបានកំណត់គោលដៅជាចម្បងលើការស្រាវជ្រាវដែលពាក់ព័ន្ធនឹងមុខវិជ្ជារបស់មនុស្ស គោលការណ៍នេះគឺទូលំទូលាយគ្រប់គ្រាន់ដើម្បីអនុវត្តចំពោះវិស័យក្រមសីលធម៌ AI ។
ទិន្នន័យធំបានក្លាយជាធនធានដ៏មានតម្លៃក្នុងវិស័យបញ្ញាសិប្បនិមិត្ត។ ដំណើរការដែលកំណត់ពីរបៀបដែលអ្នកស្រាវជ្រាវប្រមូលទិន្នន័យគួរតែអនុវត្តតាមគោលការណ៍ណែនាំសីលធម៌។
ការអនុវត្តច្បាប់ឯកជនភាពទិន្នន័យនៅក្នុងប្រទេសភាគច្រើនដាក់កម្រិតលើអ្វីដែលក្រុមហ៊ុនទិន្នន័យអាចប្រមូល និងប្រើប្រាស់បាន។ ទោះបីជាយ៉ាងណាក៏ដោយ ប្រទេសភាគច្រើននៅតែមានច្បាប់ជាមូលដ្ឋាន ដើម្បីទប់ស្កាត់ការប្រើប្រាស់ AI ដើម្បីបង្កគ្រោះថ្នាក់។
របៀបធ្វើការជាមួយ AI ប្រកបដោយសីលធម៌
នេះគឺជាគោលគំនិតសំខាន់ៗមួយចំនួនដែលអាចជួយធ្វើការឆ្ពោះទៅរកការប្រើប្រាស់ AI ប្រកបដោយសីលធម៌ និងទំនួលខុសត្រូវកាន់តែច្រើន។
ការត្រួតពិនិត្យសម្រាប់ការលំអៀង
បញ្ញាសិប្បនិម្មិតមិនមានអព្យាក្រឹតទេ។ ក្បួនដោះស្រាយតែងតែងាយនឹងបញ្ចូលភាពលំអៀង និងការរើសអើង ពីព្រោះទិន្នន័យដែលវារៀនពីរួមបញ្ចូលភាពលំអៀង។
ឧទាហរណ៍ទូទៅនៃការរើសអើង AI គឺជាប្រភេទដែលលេចឡើងជាញឹកញាប់នៅក្នុងប្រព័ន្ធសម្គាល់មុខ។ ម៉ូដែលទាំងនេះច្រើនតែជោគជ័យក្នុងការកំណត់អត្តសញ្ញាណមុខបុរសស្បែកស ប៉ុន្តែមិនសូវជោគជ័យក្នុងការស្គាល់មនុស្សដែលមានស្បែកខ្មៅជាង។
ឧទាហរណ៍មួយទៀតបង្ហាញនៅក្នុង DALL-E 2 របស់ OpenAI ។ អ្នកប្រើប្រាស់មាន រកឃើញ ថាការជំរុញជាក់លាក់មួយចំនួនតែងតែបង្កើតឡើងវិញនូវភាពលំអៀងខាងយេនឌ័រ និងការរើសអើងជាតិសាសន៍ ដែលគំរូបានយកចេញពីសំណុំទិន្នន័យនៃរូបភាពលើអ៊ីនធឺណិត។
ជាឧទាហរណ៍ នៅពេលដែលបានផ្តល់ការជម្រុញសម្រាប់រូបភាពនៃមេធាវី DALL-E 2 បង្ហាញរូបភាពនៃមេធាវីបុរស។ ម្យ៉ាងវិញទៀត ការស្នើសុំរូបភាពអ្នកបម្រើលើយន្តហោះត្រឡប់មកវិញ ភាគច្រើនជានារីបម្រើការលើយន្តហោះ។
ទោះបីជាវាមិនអាចទៅរួចក្នុងការដកភាពលំអៀងចេញពីប្រព័ន្ធ AI ទាំងស្រុងក៏ដោយ យើងអាចចាត់វិធានការដើម្បីកាត់បន្ថយផលប៉ះពាល់របស់វា។ អ្នកស្រាវជ្រាវ និងវិស្វករអាចសម្រេចបាននូវការគ្រប់គ្រងកាន់តែច្រើននៃភាពលំអៀងដោយការយល់ដឹងអំពីទិន្នន័យបណ្តុះបណ្តាល និងជួលក្រុមចម្រុះដើម្បីផ្តល់នូវធាតុចូលអំពីរបៀបដែលប្រព័ន្ធ AI គួរដំណើរការ។
វិធីសាស្រ្តរចនាដែលផ្តោតលើមនុស្ស
ក្បួនដោះស្រាយនៅលើកម្មវិធីដែលអ្នកចូលចិត្តអាចប៉ះពាល់អវិជ្ជមានដល់អ្នក។
វេទិកាដូចជា Facebook និង TikTok អាចស្វែងយល់ថាតើមាតិកាណាដែលត្រូវបម្រើដើម្បីរក្សាអ្នកប្រើប្រាស់នៅលើវេទិការបស់ពួកគេ។
ទោះបីជាមិនមានចេតនាបង្កគ្រោះថ្នាក់ក៏ដោយ គោលបំណងដើម្បីរក្សាអ្នកប្រើប្រាស់ឱ្យជាប់នឹងកម្មវិធីរបស់ពួកគេឱ្យបានយូរតាមដែលអាចធ្វើទៅបានអាចនាំឱ្យមានបញ្ហាសុខភាពផ្លូវចិត្ត។ ពាក្យ 'doomscrolling' បានកើនឡើងនៅក្នុងប្រជាប្រិយភាពជាពាក្យដែលចាប់បានទាំងអស់សម្រាប់ការចំណាយពេលវេលាច្រើនពេកក្នុងការអានព័ត៌មានអវិជ្ជមាននៅលើវេទិកាដូចជា Twitter និង Facebook ។
ក្នុងករណីផ្សេងទៀត ខ្លឹមសារស្អប់ខ្ពើម និងព័ត៌មានមិនពិត ទទួលបានវេទិកាកាន់តែទូលំទូលាយ ព្រោះវាជួយបង្កើនការចូលរួមរបស់អ្នកប្រើប្រាស់។ ក ការសិក្សា 2021 ពីអ្នកស្រាវជ្រាវនៅសាកលវិទ្យាល័យញូវយ៉ក បង្ហាញថា ការបង្ហោះពីប្រភពដែលគេស្គាល់ថាជាព័ត៌មានមិនពិត ទទួលបានការចូលចិត្ត XNUMX ដងច្រើនជាងប្រភពព័ត៌មានល្បីឈ្មោះ។
ក្បួនដោះស្រាយទាំងនេះខ្វះវិធីសាស្រ្តរចនាដែលផ្តោតលើមនុស្ស។ វិស្វករដែលកំពុងរចនាពីរបៀបដែល AI អនុវត្តសកម្មភាពមួយត្រូវតែរក្សាបទពិសោធន៍របស់អ្នកប្រើប្រាស់ក្នុងចិត្តជានិច្ច។
អ្នកស្រាវជ្រាវ និងវិស្វករត្រូវតែសួរសំណួរជានិច្ច៖ 'តើវាផ្តល់ប្រយោជន៍ដល់អ្នកប្រើប្រាស់យ៉ាងដូចម្តេច?'
ម៉ូដែល AI ភាគច្រើនធ្វើតាមគំរូប្រអប់ខ្មៅ។ ប្រអប់ខ្មៅមួយនៅក្នុង ការរៀនម៉ាស៊ីន សំដៅទៅលើ AI ដែលគ្មានមនុស្សអាចពន្យល់ពីមូលហេតុដែល AI មកដល់លទ្ធផលជាក់លាក់មួយ។
ប្រអប់ខ្មៅមានបញ្ហាព្រោះវាកាត់បន្ថយចំនួននៃការជឿទុកចិត្តដែលយើងអាចដាក់ក្នុងម៉ាស៊ីន។
ជាឧទាហរណ៍ សូមស្រមៃគិតអំពីសេណារីយ៉ូមួយដែល Facebook បញ្ចេញនូវក្បួនដោះស្រាយដែលជួយរដ្ឋាភិបាលក្នុងការតាមដានឧក្រិដ្ឋជន។ ប្រសិនបើប្រព័ន្ធ AI ដាក់ទង់អ្នក គ្មាននរណាម្នាក់នឹងអាចពន្យល់ពីមូលហេតុដែលវាត្រូវបានធ្វើការសម្រេចចិត្តនោះទេ។ ប្រភេទនៃប្រព័ន្ធនេះមិនគួរជាហេតុផលតែមួយគត់ដែលអ្នកគួរតែចាប់ខ្លួននោះទេ។
AI ឬ XAI ដែលអាចពន្យល់បានគួរតែត្រឡប់បញ្ជីកត្តាដែលរួមចំណែកដល់លទ្ធផលចុងក្រោយ។ ត្រលប់ទៅកម្មវិធីតាមដានឧក្រិដ្ឋកម្មសម្មតិកម្មរបស់យើង យើងអាចកែប្រែប្រព័ន្ធ AI ដើម្បីត្រឡប់បញ្ជីប្រកាសដែលបង្ហាញពីភាសា ឬពាក្យគួរឱ្យសង្ស័យ។ ពីទីនោះ មនុស្សអាចផ្ទៀងផ្ទាត់ថាតើអ្នកប្រើប្រាស់ដែលបានដាក់ទង់មានតម្លៃស៊ើបអង្កេតឬអត់។
XAI ផ្តល់នូវតម្លាភាព និងការជឿទុកចិត្តកាន់តែច្រើននៅក្នុងប្រព័ន្ធ AI ហើយអាចជួយមនុស្សធ្វើការសម្រេចចិត្តបានប្រសើរជាងមុន។
សន្និដ្ឋាន
ដូចការប្រឌិតដែលបង្កើតឡើងដោយមនុស្សទាំងអស់ដែរ បញ្ញាសិប្បនិម្មិតមិនមែនល្អឬអាក្រក់ទេ។ វាជាវិធីដែលយើងប្រើ AI ដែលសំខាន់។
អ្វីដែលប្លែកពីបញ្ញាសិប្បនិម្មិតគឺល្បឿនដែលវាកំពុងកើនឡើង។ ក្នុងរយៈពេល XNUMX ឆ្នាំកន្លងមកនេះ យើងបានឃើញការរកឃើញថ្មីៗ និងគួរឱ្យរំភើបនៅក្នុងវិស័យរៀនម៉ាស៊ីនជារៀងរាល់ថ្ងៃ។
ទោះយ៉ាងណាក៏ដោយច្បាប់មិនលឿនទេ។ នៅពេលដែលសាជីវកម្ម និងរដ្ឋាភិបាលបន្តប្រើប្រាស់ AI ដើម្បីបង្កើនប្រាក់ចំណេញ ឬដណ្តើមការគ្រប់គ្រងប្រជាពលរដ្ឋ យើងត្រូវស្វែងរកវិធីដើម្បីជំរុញឱ្យមានតម្លាភាព និងសមធម៌ក្នុងការប្រើប្រាស់ក្បួនដោះស្រាយទាំងនេះ។
តើអ្នកគិតថា AI ពិតជាអាចធ្វើទៅបានឬទេ?
សូមផ្ដល់យោបល់