AI hat de krêft om effisjinsje te ferbetterjen yn ferskate sektoaren lykas bedriuw en sûnenssoarch. It gebrek oan ferklearring hinderet ús ôfhinklikens lykwols om it te brûken foar beslútfoarming.
Moatte wy it oardiel fan in algoritme fertrouwe?
It is wichtich foar beslútmakkers yn elke sektor om de beheiningen en potensjele foaroardielen fan te begripen masine learmodellen. Om te soargjen dat dizze modellen har as bedoeld gedrage, soe de útfier fan elk AI-systeem foar in minske te ferklearjen wêze moatte.
Yn dit artikel sille wy it belang fan ferklearjen yn AI besjen. Wy sille in koart oersjoch jaan fan 'e soarten metoaden dy't brûkt wurde om ferklearrings ôf te lieden fan modellen foar masine-learen.
Wat is ferklearre AI?
Ferklearjen keunstmjittige yntelliginsje of XAI ferwiist nei de techniken en metoaden dy't brûkt wurde om minsken te ferstean hoe't masine-learmodellen komme ta in bepaalde útfier.
In protte populêr masine learen algoritmen wurkje as wie it in "swarte doaze". Yn masine learen, swarte doaze algoritmen ferwize nei ML-modellen wêr't it ûnmooglik is om te ferifiearjen hoe't in bepaalde ynfier liedt ta in bepaalde útfier. Sels de ûntwikkelder fan 'e AI sil net folslein kinne útlizze hoe't it algoritme wurket.
Bygelyks, djippe learen algoritmen brûke neurale netwurken om patroanen te identifisearjen út in ton oan gegevens. Alhoewol't AI-ûndersikers en -ûntwikkelders begripe hoe't neurale netwurken wurkje út in technysk eachpunt, kinne se net iens folslein ferklearje hoe't in neural netwurk mei in bepaald resultaat kaam.
Guon neuronale netwurken behannelje miljoenen parameters dy't allegear unison wurkje om it definitive resultaat werom te jaan.
Yn situaasjes dêr't besluten fan belang binne, kin it gebrek oan ferklearring problematysk wurde.
Wêrom makket útlisberens saak
Ferklearring jout ynsjoch yn hoe't modellen besluten meitsje. Bedriuwen dy't plannen om AI oan te passen om besluten te nimmen, sille moatte bepale oft de AI de juste ynput hat brûkt om ta it bêste beslút te kommen.
Modellen dy't net te ferklearjen binne in probleem yn ferskate yndustry. Bygelyks, as in bedriuw in algoritme soe brûke om besluten om ynhier te nimmen, soe it yn it bêste belang fan elkenien wêze om transparânsje te hawwen yn hoe't it algoritme beslút om in oanfreger te wegerjen.
In oar fjild wêr djip learen algoritmen wurde faker brûkt yn de sûnenssoarch. Yn gefallen dêr't algoritmen besykje mooglike tekens fan kanker te ûntdekken, is it wichtich foar dokters om te begripen hoe't it model oan in bepaalde diagnoaze kaam. Guon nivo's fan ferklearring is fereaske foar saakkundigen om folslein foardiel te nimmen fan AI en it net blyn te folgjen
Oersjoch fan te ferklearjen AI-algoritmen
Ferklearjende AI-algoritmen falle yn twa brede kategoryen: sels ynterpretabele modellen en post-hoc ferklearrings.
Self-ynterpretabele modellen
Self-ynterpretabele modellen binne algoritmen dy't in minske direkt lêze en ynterpretearje kin. Yn dit gefal is it model sels de ferklearring.
Guon fan 'e meast foarkommende sels ynterpretabele modellen omfetsje beslútbeammen en regressionmodellen.
Litte wy bygelyks in lineêr regressionmodel beskôgje dat hûsprizen foarsizze. In lineêre regression betsjut dat wy mei wat wearde x ús doelwearde y kinne foarsizze troch in bepaalde lineêre funksje f ta te passen.
Stel dat ús model lotgrutte brûkt as de haadynput om hûspriis te bepalen. Mei help fan lineêre regression, wy koenen komme mei de funksje y = 5000 * x dêr't x is it bedrach fan fjouwerkante foet of lot grutte.
Dit model is lêsber foar minsken en is folslein transparant.
Post-hoc ferklearrings
Post-hoc ferklearrings binne in groep algoritmen en techniken dy't brûkt wurde kinne om ferklearring ta te foegjen oan oare algoritmen.
De measte post-hoc útlistechniken hoege net te begripen hoe't it algoritme wurket. De brûker moat allinich de ynfier en resultearjende útfier fan it doelalgoritme opjaan.
Dizze ferklearrings wurde fierder ferdield yn twa soarten: lokale ferklearrings en globale ferklearrings.
Lokale ferklearrings hawwe as doel om in subset fan ynputen te ferklearjen. Bygelyks, jûn in bepaalde útfier, in lokale ferklearring sil by steat wêze om te bepalen hokker parameters bydroegen oan it meitsjen fan dat beslút.
Globale ferklearrings hawwe as doel om post-hoc ferklearrings te meitsjen fan it heule algoritme. Dit soarte fan útlis is typysk dreger te dwaan. Algoritmen binne kompleks en d'r kinne ûntelbere parameters wêze dy't wichtich binne foar it berikken fan it definitive resultaat.
Foarbylden fan Local Explanation Algorithms
Under de protte techniken dy't brûkt wurde om XAI te berikken, binne de algoritmen dy't brûkt wurde foar lokale ferklearrings wêrop de measte ûndersikers har rjochtsje.
Yn dizze seksje sille wy in pear populêre lokale útlisalgoritmen besjen en hoe't elk fan har wurket.
LIME
LIME (Lokaal ynterpretabel model-agnostyske ferklearring) is in algoritme dat de foarsizzings kin ferklearje fan elk masine-learalgoritme.
Lykas de namme al fermoeden docht, is LIME model-agnostyk. Dit betsjut dat LIME kin wurkje foar elk type model. It model is ek lokaal ynterpretabel, wat betsjut dat wy it model kinne ferklearje mei lokale resultaten ynstee fan it folsleine model te ferklearjen.
Sels as it model dat wurdt ferklearre in swarte doaze is, makket LIME in lokaal lineêr model om punten tichtby in bepaalde posysje.
LIMe jout in lineêre model dat approximates it model yn 'e omkriten fan in foarsizzing, mar net needsaaklikerwize globaal.
Jo kinne mear leare oer dit algoritme troch dit iepen boarne repository te besykjen.
SHAP
Shapley Additive Explanations (SHAP) is in metoade om yndividuele foarsizzingen te ferklearjen. Om te begripen hoe't SHAP wurket, moatte wy útlizze wat Shapley-wearden binne.
De Shapley wearde is in konsept yn spultsje teory dat giet it om it tawizen fan in "wearde" oan eltse spiler yn it spul. Dit wurdt ferdield sa dat de wearde tawiisd oan eltse spiler is basearre op de spiler syn bydrage oan it spul.
Hoe sollisitearje wy spultsje teory oan masine learen modellen?
Stel dat elke funksje yn ús model in "spiler" is en dat it "spiel" de funksje is dy't de foarsizzing útfiert.
De SHAP-metoade makket in gewicht lineêr model dat Shapley-wearden tawize oan ferskate funksjes. Funksjes mei hege Shapley-wearden hawwe in gruttere ynfloed op 'e útkomst fan it model, wylst funksjes mei lege Shapley-wearden minder ynfloed hawwe.
Konklúzje
AI-ferklearring is wichtich net allinich foar it garandearjen fan de earlikheid en ferantwurding fan AI-systemen, mar ek foar it bouwen fan fertrouwen yn AI-technology yn it algemien.
D'r is noch in soad ûndersyk te dwaan op it mêd fan AI-ferklearring, mar d'r binne wat kânsrike oanpak dy't ús kinne helpe om de komplekse swarte doaze AI-systemen te begripen dy't hjoed al in soad brûkt wurde.
Mei fierder ûndersyk en ûntwikkeling kinne wy hoopje AI-systemen te bouwen dy't transparanter en makliker te begripen binne. Yn 'e tuskentiid moatte bedriuwen en saakkundigen op fjilden lykas sûnenssoarch bewust wêze fan 'e beheiningen fan AI-ferklearring.
Leave a Reply