AIны жоопкерчилик менен колдонгонубузга кантип ынанабыз?
Машина үйрөнүүдөгү жетишкендиктер моделдер тез масштабда жана коомдун чоң бөлүгүнө таасир эте аларын көрсөтүп турат.
Алгоритмдер ар бир адамдын телефонундагы жаңылыктар лентасын көзөмөлдөйт. Өкмөттөр жана корпорациялар маалыматтарга негизделген чечимдерди кабыл алуу үчүн AI колдоно башташат.
AI дүйнө кантип иштээрин ого бетер сиңирип алган сайын, AI адилеттүү иш алып бара жатканына кантип ынанабыз?
Бул макалада биз AI колдонуунун этикалык көйгөйлөрүн карап чыгабыз жана AIны жоопкерчиликтүү колдонуу үчүн эмне кылсак болорун көрөбүз.
Этикалык AI деген эмне?
Этикалык AI белгилүү бир этикалык көрсөтмөлөрдү карманган жасалма интеллектти билдирет.
Башкача айтканда, бул жеке адамдар жана уюмдар үчүн AI менен жоопкерчиликтүү иштөөнүн бир жолу.
Акыркы жылдары корпорациялар кыянаттык менен пайдалануу жана бузуу фактылары ачыкка чыккандан кийин маалыматтардын купуялуулугу боюнча мыйзамдарды кармана башташты. Ошо сыяктуу эле, AI коомго терс таасирин тийгизбей турганына ынануу үчүн этикалык AI боюнча көрсөтмөлөр сунушталат.
Мисалы, AIнын кээ бир түрлөрү бир жактуу түрдө иштешет же мурунтан эле бар көз караштарды улантат. Келгиле, жалдоочуларга миңдеген резюмелерди иргеп алууга жардам берген алгоритмди карап көрөлү. Эгер алгоритм негизинен эркек же ак кызматкерлерден турган маалымат топтомунда окутулган болсо, анда алгоритм ошол категорияларга кирген талапкерлерге артыкчылык бериши мүмкүн.
Этикалык AI үчүн принциптерди түзүү
Биз таңуулоо үчүн бир катар эрежелерди түзүү жөнүндө ойлондук Жасалма интеллект Ондогон жылдар бою.
1940-жылдары эң күчтүү компьютерлер эң адистештирилген илимий эсептөөлөрдү гана жасай алган кезде, фантаст жазуучулар акылдуу роботторду башкаруу идеясынын үстүнөн ойлонушкан.
Исаак Азимов робототехниканын үч мыйзамын ойлоп тапкан жана ал өзүнүн кыска аңгемелеринде коопсуздук элементи катары роботторду программалоого киргизүүнү сунуш кылган.
Бул мыйзамдар келечектеги көптөгөн илимий-фантастикалык окуялардын ташы болуп калды жана ал тургай AI этикасы боюнча актуалдуу изилдөөлөрдү да маалымдашты.
Заманбап изилдөөдө AI изилдөөчүлөрү этикалык AI үчүн принциптердин тизмесин түзүү үчүн негиздүү булактарды издеп жатышат.
AI акыры адамдын жашоосуна таасирин тийгизгендиктен, биз эмне кылышыбыз керек жана эмне кылбашыбыз керек экенин негизги түшүнүшүбүз керек.
Белмонт баяндамасы
Маалымат үчүн, этика боюнча изилдөөчүлөр Белмонт отчетун колдонмо катары карашат. The Белмонт отчету 1979-жылы АКШнын Улуттук Саламаттыкты сактоо Институту тарабынан жарыяланган документ болгон. Экинчи Дүйнөлүк Согушта жасалган биомедициналык мыкаачылыктар медицина менен алектенген изилдөөчүлөр үчүн этикалык көрсөтмөлөрдү мыйзамдаштырууга түрткөн.
Бул жерде отчетто айтылган үч негизги принцип болуп саналат:
- Инсандарды урматтоо
- Пайдасы
- Justice
Биринчи принцип бардык адам субъекттеринин кадыр-баркын жана өз алдынчалыгын сактоого багытталган. Мисалы, изилдөөчүлөр катышуучуларды алдаганды азайтып, ар бир адамдан ачык макулдугун беришин талап кылышы керек.
Экинчи принцип, пайда көрүү, катышуучуларга мүмкүн болуучу зыянды азайтуу боюнча изилдөөчүнүн милдетине багытталган. Бул принцип изилдөөчүлөргө жеке тобокелдиктердин потенциалдуу социалдык пайдага болгон катышын тең салмактуулук менен сактоо милдетин берет.
Адилеттик, Белмонт баяндамасында белгиленген акыркы принцип, изилдөөдөн пайда ала турган топтордун арасында тобокелдиктерди жана пайдаларды бирдей бөлүштүрүүгө багытталган. Изилдөөчүлөр изилдөө субъекттерин кеңири калктын арасынан тандоого милдеттүү. Мындай кылуу коомго терс таасирин тийгизе турган жеке жана системалуу көз караштарды азайтат.
AI изилдөөлөрүндө этиканы жайгаштыруу
Белмонт баяндамасы негизинен адам субъектилерин изилдөөгө багытталган болсо да, принциптер AI этика тармагына колдонуу үчүн жетиштүү болгон.
Big Data жасалма интеллект тармагында баалуу ресурс болуп калды. Изилдөөчүлөр маалыматтарды кантип чогултарын аныктаган процесстер этикалык эрежелерге ылайык келиши керек.
Көпчүлүк мамлекеттерде маалыматтардын купуялуулугу боюнча мыйзамдардын ишке ашырылышы компаниялар кайсы маалыматтарды чогултуп жана колдоно ала тургандыгына кандайдыр бир чектөө киргизет. Бирок, көпчүлүк мамлекеттерде дагы эле AI зыян келтириш үчүн колдонулушуна жол бербөө үчүн жөнөкөй мыйзамдар бар.
AI менен кантип иштөө керек
Бул жерде AIны этикалык жана жоопкерчиликтүү колдонууга жардам бере турган бир нече негизги түшүнүктөр бар.
Бийликти көзөмөлдөө
Жасалма интеллект нейтралдуу эмес. Алгоритмдер ар дайым киргизилген бир тараптуулукка жана дискриминацияга дуушар болушат, анткени ал үйрөнгөн маалыматтарда бир тараптуулук камтылган.
Дискриминациялоочу AIнын кеңири таралган мисалы - жүзүн таануу системаларында көп пайда болгон түрү. Бул моделдер көбүнчө ак эркектердин жүзүн аныктоодо ийгиликке жетишет, бирок кара терилүү адамдарды таанууда анча ийгиликтүү эмес.
Дагы бир мисал OpenAIдин DALL-E 2де пайда болот. Колдонуучуларда бар ачылган Кээ бир эскертүүлөр көбүнчө гендердик жана расалык көз караштарды кайталайт, аны модель онлайн сүрөттөрүнүн маалымат топтомунан тандап алган.
Мисалы, юристтердин сүрөттөрү үчүн эскертүү берилгенде, DALL-E 2 эркек юристтердин сүрөттөрүн кайтарат. Башка жагынан алганда, стюардессалардын сүрөттөрүн талап кылуу, негизинен аял стюардессаларды кайтарат.
AI системаларынан бир жактуулукту толугу менен жок кылуу мүмкүн болбосо да, биз анын кесепеттерин азайтуу үчүн чараларды көрө алабыз. Окумуштуулар жана инженерлер окуу маалыматтарын түшүнүү жана AI тутуму кандай иштеши керектиги жөнүндө маалымат берүү үчүн ар түрдүү команданы жалдоо аркылуу бир тараптуулукту көбүрөөк көзөмөлдөөгө жетише алышат.
Адамга багытталган дизайн мамилеси
Сүйүктүү колдонмоңуздагы алгоритмдер сизге терс таасирин тийгизиши мүмкүн.
Facebook жана TikTok сыяктуу платформалар колдонуучуларды өз платформаларында кармап туруу үчүн кандай контентти тейлөө керектигин үйрөнө алышат.
Жада калса зыян келтирүү ниети болбосо да, колдонуучуларды мүмкүн болушунча узак убакыт бою өз колдонмосуна жабыштырып туруу максаты психикалык ден соолук маселелерине алып келиши мүмкүн. Твиттер жана Фейсбук сыяктуу платформаларда терс жаңылыктарды окууга ашыкча убакыт коротуу үчүн колдонулган термин катары "кыямат айлануу" термини популярдуулукка ээ болду.
Башка учурларда, жек көрүү мазмуну жана туура эмес маалымат кеңири платформаны алат, анткени ал колдонуучунун катышуусун жогорулатууга жардам берет. А 2021 изилдөө Нью-Йорк университетинин изилдөөчүлөрүнүн изилдөөлөрү көрсөткөндөй, туура эмес маалымат менен белгилүү булактардын посттору абройлуу маалымат булактарына караганда алты эсе көп жактырууларды алат.
Бул алгоритмдер адамга багытталган долбоорлоо ыкмасына жетишпейт. AI иш-аракетти кантип аткарарын долбоорлоочу инженерлер ар дайым колдонуучунун тажрыйбасын эске алышы керек.
Изилдөөчүлөр жана инженерлер ар дайым суроону бериши керек: "Бул колдонуучуга кандай пайда алып келет?"
Көпчүлүк AI моделдери кара кутуча моделин ээрчишет. Ичинде кара куту машина үйрөнүү AIга тиешелүү, мында эч ким AI эмне үчүн белгилүү бир натыйжага жеткенин түшүндүрө албайт.
Кара кутулар көйгөйлүү, анткени ал биз машиналарга болгон ишенимди азайтат.
Мисалы, Facebook өкмөткө кылмышкерлерди издөөгө жардам берген алгоритмин чыгарган сценарийди элестетип көрөлү. Эгер AI системасы сизге белги берсе, эмне үчүн мындай чечим кабыл алынганын эч ким түшүндүрө албайт. Мындай система сизди камакка алуу үчүн жалгыз себеп болбошу керек.
Түшүндүрүлгөн AI же XAI акыркы натыйжага өбөлгө түзгөн факторлордун тизмесин кайтарышы керек. Биздин гипотетикалык кылмыш трекерибизге кайрылып, биз шектүү тилди же терминдерди көрсөткөн посттордун тизмесин кайтаруу үчүн AI тутумун чыңдай алабыз. Ал жерден адам желекче коюлган колдонуучу иликтөөгө татыктуубу же жокпу, текшере алат.
XAI AI системаларына көбүрөөк ачыктыкты жана ишенимди камсыз кылат жана адамдарга жакшыраак чечим чыгарууга жардам берет.
жыйынтыктоо
Бардык адам жасаган ойлоп табуулар сыяктуу эле, жасалма интеллект жакшы же жаман эмес. Бул маанилүү AI кандай колдонуу болуп саналат.
Жасалма интеллекттин өзгөчөлүгү - анын өсүп жаткан темпинде. Акыркы беш жылда биз күн сайын машина үйрөнүү тармагында жаңы жана кызыктуу ачылыштарды көрдүк.
Бирок, мыйзам тез эмес. Корпорациялар жана өкмөттөр кирешени көбөйтүү же жарандарды көзөмөлдөө үчүн AI колдонууну улантып жаткандыктан, биз бул алгоритмдерди колдонууда ачык-айкындуулукту жана адилеттүүлүктү камсыз кылуу жолдорун табышыбыз керек.
Сиз чындап этикалык AI мүмкүн деп ойлойсузбу?
Таштап Жооп