AI бизнес жана саламаттыкты сактоо сыяктуу ар кандай секторлордо натыйжалуулукту жогорулатууга күчкө ээ. Бирок, түшүндүрмөнүн жоктугу чечим кабыл алууда аны колдонууга көз каранды болушубузга тоскоолдук кылат.
Алгоритмдин чечимине ишенишибиз керекпи?
Кандайдыр бир тармакта чечим кабыл алуучулар үчүн чектөөлөрдү жана мүмкүн болуучу терс жактарын түшүнүү маанилүү машина менен окутуунун моделдери. Бул моделдер ойдогудай иштешин камсыз кылуу үчүн, ар кандай AI тутумунун натыйжасы адамга түшүнүктүү болушу керек.
Бул макалада биз AIдагы түшүндүрмөнүн маанилүүлүгүн карап чыгабыз. Машина үйрөнүү моделдеринен түшүндүрмөлөрдү алуу үчүн колдонулган ыкмалардын түрлөрүнө кыскача сереп салабыз.
Explainable AI деген эмне?
Түшүндүрмө Жасалма интеллект же XAI адамдарга машинаны үйрөнүү моделдери белгилүү бир натыйжага кантип жеткенин түшүнүүгө мүмкүндүк берүү үчүн колдонулган ыкмаларды жана ыкмаларды билдирет.
Көптөгөн популярдуу машинаны үйрөнүү алгоритмдери ал "кара куту" сыяктуу иштешет. Машина үйрөнүүдө, кара куту алгоритмдери ML моделдерине кайрылыңыз, анда белгилүү бир киргизүү белгилүү бир жыйынтыкка кантип алып келерин текшерүү мүмкүн эмес. Алгоритмдин кантип иштээрин AIды иштеп чыгуучу да толук түшүндүрө албайт.
Мисалы, терең үйрөнүү алгоритмдери колдонулат нейрон тармактары бир тонна маалыматтардын үлгүлөрүн аныктоо үчүн. AI изилдөөчүлөрү жана иштеп чыгуучулары нейрон тармактарынын техникалык көз караштан кандайча иштээрин түшүнүшсө да, алар нейрондук тармак кандайча белгилүү бир жыйынтыкка келгенин толук түшүндүрө алышпайт.
Кээ бир нейрон тармактары акыркы натыйжаны кайтаруу үчүн баары бирдикте иштеген миллиондогон параметрлерди иштетет.
Чечимдер маанилүү болгон учурларда, түшүндүрмөнүн жоктугу көйгөйлүү болуп калышы мүмкүн.
Эмне үчүн түшүндүрүү маанилүү
Түшүндүрүү моделдер кандай чечим кабыл алуу жөнүндө түшүнүк берет. Чечимдерди кабыл алуу үчүн AIди адаптациялоону пландаштырган ишканалар AI эң жакшы чечимге келүү үчүн туура киргизүүнү колдонгонун аныкташы керек.
Түшүнүксүз моделдер бир нече тармактарда көйгөй болуп саналат. Мисалы, эгерде компания жумушка алуу боюнча чечимдерди кабыл алуу үчүн алгоритмди колдоно турган болсо, алгоритм арыз ээсин кантип четке кагууну чечээринин ачык-айкын болушу ар бир адамдын кызыкчылыгы үчүн болмок.
Дагы бир талаа терең билим алуу алгоритмдер саламаттыкты сактоодо көбүрөөк колдонулууда. Алгоритмдер рактын мүмкүн болгон белгилерин аныктоого аракет кылган учурларда, дарыгерлер моделдин белгилүү бир диагнозго кантип келгенин түшүнүү үчүн маанилүү. Эксперттерге AIнын бардык артыкчылыктарын колдонуу жана аны сокур түрдө ээрчип албоо үчүн кандайдыр бир деңгээлде түшүндүрүү керек
Түшүндүрүлгөн AI алгоритмдерине сереп салуу
Түшүндүрүлгөн AI алгоритмдери эки кеңири категорияга бөлүнөт: өзүн-өзү чечмелей турган моделдер жана пост-хок түшүндүрмөлөрү.
Өзүн өзү чечмелей турган моделдер
Өзүн өзү чечмелей турган моделдер адам түздөн-түз окуп, чечмелей ала турган алгоритмдер. Бул учурда, моделдин өзү түшүндүрмө болуп саналат.
Эң кеңири таралган өзүн-өзү чечмелөөчү моделдердин айрымдарына чечим дарактары жана регрессия моделдери кирет.
Мисалы, үй баасын болжолдоочу сызыктуу регрессия моделин карап көрөлү. Сызыктуу регрессия, кандайдыр бир x мааниси менен, белгилүү бир сызыктуу f функциясын колдонуу менен биздин максаттуу маанисибизди болжолдой аларыбызды билдирет.
Биздин моделибиз үй баасын аныктоо үчүн негизги маалымат катары лоттун өлчөмүн колдонот дейли. Сызыктуу регрессияны колдонуп, биз у = 5000 * x функциясын ойлоп таба алдык, мында x - чарчы футтун же лоттун көлөмүнүн өлчөмү.
Бул модель адам окуй алат жана толугу менен ачык болуп саналат.
Пост-хок түшүндүрмөлөрү
Пост-хок түшүндүрмөлөрү башка алгоритмдерге түшүндүрүү мүмкүнчүлүгүн кошуу үчүн колдонула турган алгоритмдердин жана ыкмалардын тобу.
Көпчүлүк пост-хок түшүндүрүү ыкмалары алгоритмдин кантип иштээрин түшүнүүнүн кереги жок. Колдонуучу максаттуу алгоритмдин киришин жана натыйжасын көрсөтүүсү гана керек.
Бул түшүндүрмөлөр андан ары эки түргө бөлүнөт: жергиликтүү түшүндүрмөлөр жана глобалдык түшүндүрмөлөр.
Жергиликтүү түшүндүрмөлөр киргизүүлөрдүн бир бөлүгүн түшүндүрүүгө багытталган. Мисалы, белгилүү бир жыйынтыкты эске алганда, жергиликтүү түшүндүрмө бул чечимди кабыл алууга кайсы параметрлер салым кошконун так аныктай алат.
Глобалдык түшүндүрмөлөр бүт алгоритмдин пост-хок түшүндүрмөлөрүн чыгарууга багытталган. Түшүндүрмөнүн бул түрү, адатта, кыйыныраак. Алгоритмдер татаал жана акыркы натыйжага жетүү үчүн маанилүү болгон сансыз параметрлер болушу мүмкүн.
Жергиликтүү түшүндүрүү алгоритмдеринин мисалдары
XAI жетүү үчүн колдонулган көптөгөн ыкмалардын арасында, жергиликтүү түшүндүрмөлөр үчүн колдонулган алгоритмдер көпчүлүк изилдөөчүлөрдүн көңүлүн бурат.
Бул бөлүмдө биз кээ бир популярдуу жергиликтүү түшүндүрүү алгоритмдерин жана алардын ар бири кантип иштээрин карап чыгабыз.
Акиташ
LIME (Жергиликтүү интерпретациялануучу модел-агностикалык түшүндүрүүчү) кандайдыр бир машина үйрөнүү алгоритминин божомолдорун түшүндүрө ала турган алгоритм.
Аты айтып тургандай, LIME модель-агностикалык. Бул LIME моделдин бардык түрү үчүн иштей алат дегенди билдирет. Модель локалдык жактан да чечмеленет, демек биз моделди бүтүндөй түшүндүргөндүн ордуна жергиликтүү натыйжаларды колдонуу менен түшүндүрө алабыз.
Түшүндүрүлүп жаткан модель кара куту болсо да, LIME белгилүү бир позицияга жакын жайгашкан чекиттердин тегерегинде жергиликтүү сызыктуу моделди түзөт.
LIMe болжолдоого жакын жердеги моделди жакындаткан сызыктуу моделди камсыз кылат, бирок глобалдык деңгээлде эмес.
Бул ачык булак репозиторийине кирип, бул алгоритм жөнүндө көбүрөөк биле аласыз.
SHAP
Shapley Additive Explanations (SHAP) жеке божомолдорду түшүндүрүү ыкмасы болуп саналат. SHAP кантип иштээрин түшүнүү үчүн, биз Shapley баалуулуктары эмне экенин түшүндүрүшүбүз керек.
Shapley наркы оюн теориясында оюндун ар бир оюнчуга "баа" ыйгарууну камтыган түшүнүк. Бул ар бир оюнчуга берилген баа оюнчунун оюнга кошкон салымына жараша бөлүштүрүлөт.
Кантип кайрылабыз машина үйрөнүү үчүн оюн теориясы моделдер?
Биздин моделдеги ар бир функция "оюнчу" жана "оюн" болжолдоону чыгарган функция деп коёлу.
SHAP ыкмасы ар кандай өзгөчөлүктөргө Shapley баалуулуктарын дайындаган салмактуу сызыктуу моделди түзөт. Шапли баалуулуктары жогору болгон функциялар моделдин жыйынтыгына көбүрөөк таасир этет, ал эми Шапли баалуулуктары төмөн функциялар азыраак таасир этет.
жыйынтыктоо
AI түшүндүрмөлүүлүгү AI системаларынын адилеттүүлүгүн жана жоопкерчилигин камсыз кылуу үчүн гана эмес, жалпысынан AI технологиясына ишенимди түзүү үчүн да маанилүү.
AIнын түшүндүрмөлүүлүгү жаатында дагы көптөгөн изилдөөлөр жасалышы керек, бирок бүгүнкү күндө кеңири колдонулуп жаткан татаал кара кутуча AI системаларын түшүнүүгө жардам бере турган кээ бир келечектүү ыкмалар бар.
Андан ары изилдөө жана өнүктүрүү менен биз ачык-айкын жана түшүнүүгө оңой болгон AI системаларын түзөбүз деп үмүттөнсөк болот. Ошол эле учурда, саламаттыкты сактоо сыяктуу тармактардагы бизнес жана эксперттер AI түшүндүрүү мүмкүнчүлүгүнүн чектөөлөрүн билиши керек.
Таштап Жооп