АИ има моћ да побољша ефикасност у различитим секторима као што су бизнис и здравствена заштита. Међутим, недостатак објашњивости омета наше ослањање на то да га користимо за доношење одлука.
Да ли треба да верујемо процени алгоритма?
Важно је да доносиоци одлука у било којој индустрији разумеју ограничења и потенцијалне пристрасности модели машинског учења. Да би се осигурало да се ови модели понашају како је предвиђено, излаз било ког система вештачке интелигенције треба да буде разумљив човеку.
У овом чланку ћемо говорити о важности објашњивости у АИ. Даћемо кратак преглед врста метода које се користе за извођење објашњења из модела машинског учења.
Шта је Објашњива АИ?
Објашњиво вештачка интелигенција или КСАИ се односи на технике и методе које се користе да би се омогућило људима да схвате како модели машинског учења долазе до одређеног резултата.
Многи популарни алгоритми машинског учења раде као да је „црна кутија“. У машинском учењу, алгоритми црне кутије односе се на МЛ моделе где је немогуће проверити како одређени улаз води до одређеног излаза. Чак ни програмер АИ неће моћи у потпуности да објасни како алгоритам функционише.
На пример, користе се алгоритми дубоког учења неуронске мреже да идентификује обрасце из тона података. Иако истраживачи и програмери вештачке интелигенције разумеју како неуронске мреже функционишу са техничке тачке гледишта, чак ни они не могу у потпуности да објасне како је неуронска мрежа дошла до одређеног резултата.
Неке неуронске мреже рукују милионима параметара који сви раде унисоно да би дали коначни резултат.
У ситуацијама када су одлуке важне, недостатак објашњења може постати проблематичан.
Зашто је објашњивост важна
Објашњивост пружа увид у то како модели доносе одлуке. Предузећа која планирају да прилагоде вештачку интелигенцију за доношење одлука мораће да утврде да ли је вештачка интелигенција користила прави улаз да би донела најбољу одлуку.
Модели који су необјашњиви представљају проблем у неколико индустрија. На пример, ако би компанија користила алгоритам за доношење одлука о запошљавању, било би у најбољем интересу свих да има транспарентност у томе како алгоритам одлучује да одбије кандидата.
Друго поље где дубоко учење алгоритми се све чешће користе је у здравству. У случајевима када алгоритми покушавају да открију могуће знаке рака, важно је да лекари разумеју како је модел дошао до одређене дијагнозе. Одређени ниво објашњивости је потребан да би стручњаци у потпуности искористили предности вештачке интелигенције, а не да је слепо прате
Преглед објашњивих АИ алгоритама
Објашњиви АИ алгоритми спадају у две широке категорије: модели који се сами тумаче и пост-хоц објашњења.
Модели који се сами тумаче
Модели који се сами тумаче су алгоритми које човек може директно да чита и тумачи. У овом случају, сам модел је објашњење.
Неки од најчешћих модела који се сами тумаче укључују стабла одлучивања и регресионе моделе.
На пример, хајде да размотримо модел линеарне регресије који предвиђа цене кућа. Линеарна регресија значи да ћемо са неком вредношћу к моћи да предвидимо нашу циљну вредност и применом одређене линеарне функције ф.
Претпоставимо да наш модел користи величину парцеле као главни улаз за одређивање цене куће. Користећи линеарну регресију, успели смо да дођемо до функције и = 5000 * к где је к количина квадратних стопа или величина парцеле.
Овај модел је читљив и потпуно је транспарентан.
Пост-Хоц објашњења
Пост-хоц објашњења су група алгоритама и техника које се могу користити за додавање објашњивости другим алгоритмима.
Већина пост-хоц техника објашњења не мора да разуме како алгоритам функционише. Корисник само треба да наведе улаз и резултујући излаз циљног алгоритма.
Ова објашњења се даље деле на две врсте: локална објашњења и глобална објашњења.
Локална објашњења имају за циљ да објасне подскуп улазних података. На пример, с обзиром на одређени резултат, локално објашњење ће моћи тачно да одреди који су параметри допринели доношењу те одлуке.
Глобална објашњења имају за циљ да произведу пост-хоц објашњења целог алгоритма. Овакву врсту објашњења је обично теже урадити. Алгоритми су сложени и може постојати безброј параметара који су значајни за постизање коначног резултата.
Примери алгоритама локалног објашњења
Међу многим техникама које се користе за постизање КСАИ, алгоритми који се користе за локална објашњења су оно на шта се већина истраживача фокусира.
У овом одељку ћемо погледати неке популарне локалне алгоритме објашњења и како сваки од њих функционише.
ЛИМЕ
ЛИМЕ (Локално интерпретабилно модел-агностичко објашњење) је алгоритам који може да објасни предвиђања било ког алгоритма машинског учења.
Као што име говори, ЛИМЕ је модел-агностик. То значи да ЛИМЕ може да ради за било коју врсту модела. Модел се такође може локално интерпретирати, што значи да можемо објаснити модел користећи локалне резултате уместо да објашњавамо цео модел.
Чак и ако је модел који се објашњава црна кутија, ЛИМЕ креира локални линеарни модел око тачака у близини одређене позиције.
ЛИМе обезбеђује линеарни модел који апроксимира модел у близини предвиђања, али не нужно глобално.
Можете сазнати више о овом алгоритму тако што ћете посетити ово отворено спремиште.
СХАП
Шеплијева објашњења адитива (СХАП) је метод за објашњење појединачних предвиђања. Да бисмо разумели како СХАП функционише, мораћемо да објаснимо шта су Схаплеи вредности.
Шеплијева вредност је концепт у теорији игара који укључује додељивање „вредности“ сваком играчу у игри. Ово је распоређено тако да је вредност додељена сваком играчу заснована на доприносу играча игри.
Како се пријављујемо теорија игара до машинског учења модели?
Претпоставимо да је свака карактеристика у нашем моделу „играч“ и да је „игра“ функција која даје предвиђање.
СХАП метода креира пондерисани линеарни модел који додељује Схаплеи вредности различитим карактеристикама. Карактеристике са високим Шеплијевим вредностима имају већи утицај на исход модела, док карактеристике са ниским Шеплијевим вредностима имају мањи утицај.
Zakljucak
Објашњивост АИ је важна не само за осигурање правичности и одговорности система вештачке интелигенције, већ и за изградњу поверења у АИ технологију уопште.
Остаје још доста истраживања у области објашњивости вештачке интелигенције, али постоје неки обећавајући приступи који нам могу помоћи да разумемо сложене системе вештачке интелигенције црне кутије који се данас већ широко користе.
Уз даље истраживање и развој, можемо се надати да ћемо изградити системе вештачке интелигенције који су транспарентнији и лакши за разумевање. У међувремену, предузећа и стручњаци у областима као што је здравство треба да буду свесни ограничења објашњивости вештачке интелигенције.
Ostavite komentar