ВИ има моќ да ја подобри ефикасноста во различни сектори како што се бизнисот и здравството. Сепак, недостатокот на објаснување го попречува нашето потпирање да го користиме за донесување одлуки.
Дали треба да му веруваме на проценката на алгоритам?
Важно е носителите на одлуки во која било индустрија да ги разберат ограничувањата и потенцијалните предрасуди на модели на машинско учење. За да се осигура дека овие модели се однесуваат како што е предвидено, излезот од кој било систем за вештачка интелигенција треба да може да се објасни на човекот.
Во оваа статија, ќе ја разгледаме важноста на објаснувањето во вештачката интелигенција. Ќе обезбедиме краток преглед на видовите методи што се користат за да се извлечат објаснувања од моделите за машинско учење.
Што е објаснета вештачка интелигенција?
Објасниво вештачка интелигенција или XAI се однесува на техниките и методите што се користат за да им се овозможи на луѓето да разберат како моделите за машинско учење пристигнуваат до одреден резултат.
Многу популарни алгоритми за машинско учење работи како да е „црна кутија“. Во машинското учење, алгоритми за црна кутија се однесуваат на ML моделите каде што е невозможно да се потврди како одреден влез води до одреден излез. Дури и развивачот на вештачката интелигенција нема да може целосно да објасни како функционира алгоритмот.
На пример, користат алгоритми за длабоко учење нервните мрежи да се идентификуваат обрасци од еден тон податоци. Иако истражувачите и развивачите на вештачка интелигенција разбираат како функционираат невронските мрежи од техничка гледна точка, дури ни тие не можат целосно да објаснат како невронската мрежа дошла до одреден резултат.
Некои невронски мрежи се справуваат со милиони параметри кои сите работат во дует за да го вратат конечниот резултат.
Во ситуации кога одлуките се важни, недостатокот на објаснување може да стане проблематичен.
Зошто објаснувањето е важно
Објаснување дава увид во тоа како моделите носат одлуки. Бизнисите кои планираат да ја приспособат вештачката интелигенција за да донесуваат одлуки ќе треба да утврдат дали вештачката интелигенција го искористила вистинскиот влез за да дојде до најдобрата одлука.
Моделите кои се необјасниви се проблем во неколку индустрии. На пример, ако компанијата користи алгоритам за донесување одлуки за вработување, во најдобар интерес би било секого да има транспарентност во тоа како алгоритмот одлучува да одбие апликант.
Друго поле каде длабоко учење алгоритмите се почесто се користат во здравството. Во случаите кога алгоритмите се обидуваат да откријат можни знаци на рак, важно е лекарите да разберат како моделот стигнал до одредена дијагноза. Потребно е одредено ниво на објаснување за експертите целосно да ги искористат предностите на вештачката интелигенција и да не ја следат слепо
Преглед на објаснети алгоритми со вештачка интелигенција
Објасливите алгоритми за вештачка интелигенција спаѓаат во две широки категории: модели што можат да се толкуваат самостојно и пост-хок објаснувања.
Модели што можат да се толкуваат сами
Модели што можат да се толкуваат сами се алгоритми кои човекот директно може да ги прочита и интерпретира. Во овој случај, самиот модел е објаснување.
Некои од најчестите модели што може да се толкуваат вклучуваат стебла на одлуки и модели на регресија.
На пример, да разгледаме модел на линеарна регресија што ги предвидува цените на куќите. Линеарна регресија значи дека со одредена вредност x, ќе можеме да ја предвидиме нашата целна вредност y со примена на одредена линеарна функција f.
Да претпоставиме дека нашиот модел користи големина на парцела како главен влез за одредување на цената на куќата. Користејќи линеарна регресија, успеавме да дојдеме до функцијата y = 5000 * x каде што x е количината на квадратни стапки или големината на многу.
Овој модел е читлив за луѓе и е целосно транспарентен.
Пост-хок објаснувања
Пост-хок објаснувања се група на алгоритми и техники кои може да се користат за да се додаде објаснување на други алгоритми.
Повеќето техники за пост-хок објаснување не треба да разберат како функционира алгоритмот. Корисникот треба само да го специфицира влезот и добиениот излез од целниот алгоритам.
Овие објаснувања понатаму се поделени на два вида: локални објаснувања и глобални објаснувања.
Локалните објаснувања имаат за цел да објаснат подмножество на влезови. На пример, со оглед на одреден излез, локалното објаснување ќе може точно да одреди кои параметри придонеле за донесување на таа одлука.
Глобалните објаснувања имаат за цел да произведат пост-хок објаснувања за целиот алгоритам. Овој тип на објаснување обично е потешко да се направи. Алгоритмите се сложени и може да има безброј параметри кои се значајни за постигнување на конечниот резултат.
Примери на алгоритми за локално објаснување
Меѓу многуте техники што се користат за постигнување на XAI, алгоритмите што се користат за локални објаснувања се она на што се фокусираат повеќето истражувачи.
Во овој дел, ќе погледнеме некои популарни локални алгоритми за објаснување и како функционира секој од нив.
ВРЕМЕ
LIME (локален интерпретабилен модел-агностичко објаснување) е алгоритам кој може да ги објасни предвидувањата на кој било алгоритам за машинско учење.
Како што имплицира името, LIME е модел-агностик. Ова значи дека LIME може да работи за секаков тип на модел. Моделот исто така може локално да се толкува, што значи дека можеме да го објасниме моделот користејќи локални резултати наместо да го објаснуваме целиот модел.
Дури и ако моделот што се објаснува е црна кутија, LIME создава локален линеарен модел околу точките во близина на одредена позиција.
LIME обезбедува линеарен модел кој го приближува моделот во близина на предвидување, но не мора глобално.
Можете да дознаете повеќе за овој алгоритам со посета на ова складиште со отворен код.
SHAP
Објаснувања за адитиви на Шепли (SHAP) е метод за објаснување на индивидуалните предвидувања. За да разбереме како функционира SHAP, ќе треба да објасниме што се вредностите на Шепли.
Вредноста на Шепли е концепт во теоријата на играта што вклучува доделување „вредност“ на секој играч во играта. Ова се распределува така што вредноста што му е доделена на секој играч се заснова на придонесот на играчот во играта.
Како аплицираме теорија на игри до машинско учење модели?
Да претпоставиме дека секоја карактеристика во нашиот модел е „играч“ и дека „играта“ е функцијата што го дава предвидувањето.
Методот SHAP создава пондериран линеарен модел кој доделува Shapley вредности на различни карактеристики. Карактеристиките со високи Shapley вредности имаат поголемо влијание врз исходот на моделот додека карактеристиките со ниски Shapley вредности имаат помало влијание.
Заклучок
Објаснивоста на вештачката интелигенција е важна не само за обезбедување на правичност и одговорност на системите за вештачка интелигенција, туку и за градење доверба во технологијата за вештачка интелигенција воопшто.
Сè уште има многу истражувања што треба да се направат во областа на објаснувањето на вештачката интелигенција, но има некои ветувачки пристапи кои можат да ни помогнат да ги разбереме сложените системи за вештачка интелигенција на црната кутија што веќе се широко користени денес.
Со понатамошно истражување и развој, можеме да се надеваме дека ќе изградиме системи за вештачка интелигенција кои се потранспарентни и полесни за разбирање. Во меѓувреме, бизнисите и експертите во области како што е здравството треба да бидат свесни за ограничувањата на објаснувањето на вештачката интелигенција.
Оставете Одговор