KI het die krag om doeltreffendheid in verskeie sektore soos besigheid en gesondheidsorg te verbeter. Die gebrek aan verklaarbaarheid belemmer egter ons afhanklikheid daarvan om dit vir besluitneming te gebruik.
Moet ons die oordeel van 'n algoritme vertrou?
Dit is belangrik vir besluitnemers in enige bedryf om die beperkings en potensiële vooroordele van masjienleermodelle. Om te verseker dat hierdie modelle optree soos bedoel, moet die uitset van enige KI-stelsel aan 'n mens verduidelik kan word.
In hierdie artikel gaan ons oor die belangrikheid van verduidelikbaarheid in KI. Ons sal 'n kort oorsig gee van die tipe metodes wat gebruik word om verduidelikings van masjienleermodelle af te lei.
Wat is verklaarbare AI?
Verklaarbaar kunsmatige intelligensie of XAI verwys na die tegnieke en metodes wat gebruik word om mense toe te laat om te verstaan hoe masjienleermodelle by 'n sekere uitset kom.
Baie gewild masjienleer-algoritmes werk asof dit 'n "black box" is. In masjienleer, swart boks algoritmes verwys na ML-modelle waar dit onmoontlik is om te verifieer hoe 'n sekere inset tot 'n bepaalde uitset lei. Selfs die ontwikkelaar van die KI sal nie volledig kan verduidelik hoe die algoritme werk nie.
Byvoorbeeld, diep leer algoritmes gebruik neurale netwerke om patrone uit 'n ton data te identifiseer. Selfs al verstaan KI-navorsers en -ontwikkelaars hoe neurale netwerke uit 'n tegniese oogpunt werk, kan hulle nie eers volledig verduidelik hoe 'n neurale netwerk tot 'n bepaalde resultaat vorendag gekom het nie.
Sommige neurale netwerke hanteer miljoene parameters wat almal in harmonie werk om die finale resultaat terug te gee.
In situasies waar besluite saak maak, kan die gebrek aan verklaarbaarheid problematies word.
Hoekom maak verduidelikbaarheid saak
Verklaarbaarheid bied insig in hoe modelle besluite neem. Besighede wat beplan om KI aan te pas om besluite te neem, sal moet bepaal of die KI die regte insette gebruik het om by die beste besluit te kom.
Modelle wat onverklaarbaar is, is 'n probleem in verskeie industrieë. Byvoorbeeld, as 'n maatskappy 'n algoritme sou gebruik om aanstellingsbesluite te neem, sal dit in almal se beste belang wees om deursigtigheid te hê in hoe die algoritme besluit om 'n aansoeker te verwerp.
Nog 'n veld waar diep leer Algoritmes word meer gereeld in gesondheidsorg gebruik. In gevalle waar algoritmes moontlike tekens van kanker probeer opspoor, is dit belangrik dat dokters verstaan hoe die model by 'n bepaalde diagnose uitgekom het. Daar is 'n mate van verduidelikbaarheid nodig vir kundiges om ten volle voordeel te trek uit KI en dit nie blindelings te volg nie
Oorsig van verklaarbare AI-algoritmes
Verduidelikbare KI-algoritmes val in twee breë kategorieë: self-interpreteerbare modelle en post-hoc verduidelikings.
Self-interpreteerbare modelle
Self-interpreteerbare modelle is algoritmes wat 'n mens direk kan lees en interpreteer. In hierdie geval is die model self die verduideliking.
Sommige van die mees algemene self-interpreteerbare modelle sluit in besluitnemingsbome en regressiemodelle.
Kom ons kyk byvoorbeeld na 'n lineêre regressiemodel wat huispryse voorspel. ’n Lineêre regressie beteken dat ons met een of ander waarde x ons teikenwaarde y sal kan voorspel deur ’n spesifieke lineêre funksie f toe te pas.
Gestel ons model gebruik erfgrootte as die hoofinvoer om huisprys te bepaal. Deur lineêre regressie te gebruik, kon ons die funksie y = 5000 * x uitvind waar x die hoeveelheid vierkante voet of lotgrootte is.
Hierdie model is mens-leesbaar en is heeltemal deursigtig.
Post-hoc Verduidelikings
Post-hoc verduidelikings is 'n groep algoritmes en tegnieke wat gebruik kan word om verduidelikbaarheid by ander algoritmes te voeg.
Die meeste post-hoc verduidelikingstegnieke hoef nie te verstaan hoe die algoritme werk nie. Die gebruiker hoef slegs die invoer en gevolglike uitset van die teikenalgoritme te spesifiseer.
Hierdie verduidelikings word verder in twee soorte verdeel: plaaslike verduidelikings en globale verduidelikings.
Plaaslike verduidelikings het ten doel om 'n subset van insette te verduidelik. Byvoorbeeld, gegewe 'n spesifieke uitset, sal 'n plaaslike verduideliking in staat wees om vas te stel watter parameters bygedra het om daardie besluit te neem.
Globale verduidelikings het ten doel om post-hoc verduidelikings van die hele algoritme te produseer. Hierdie tipe verduideliking is gewoonlik moeiliker om te doen. Algoritmes is kompleks en daar kan ontelbare parameters wees wat betekenisvol is om die finale resultaat te bereik.
Voorbeelde van plaaslike verduidelikingsalgoritmes
Onder die vele tegnieke wat gebruik word om XAI te bereik, is die algoritmes wat vir plaaslike verduidelikings gebruik word waarop die meeste navorsers fokus.
In hierdie afdeling gaan ons kyk na 'n paar gewilde plaaslike verduidelikingsalgoritmes en hoe elkeen van hulle werk.
LIME
LIME (Plaaslike interpreteerbare model-agnostiese verduideliker) is 'n algoritme wat die voorspellings van enige masjienleeralgoritme kan verduidelik.
Soos die naam aandui, is LIME model-agnosties. Dit beteken dat LIME vir enige tipe model kan werk. Die model is ook plaaslik interpreteerbaar, wat beteken dat ons die model kan verduidelik deur plaaslike resultate eerder as om die hele model te verduidelik.
Selfs al is die model wat verduidelik word 'n swart boks, skep LIME 'n plaaslike lineêre model rondom punte naby 'n sekere posisie.
LIMe verskaf 'n lineêre model wat die model in die omgewing van 'n voorspelling benader, maar nie noodwendig globaal nie.
U kan meer oor hierdie algoritme leer deur hierdie oopbronbewaarplek te besoek.
SHAP
Shapley Additive Explanations (SHAP) is 'n metode om individuele voorspellings te verduidelik. Om te verstaan hoe SHAP werk, sal ons moet verduidelik wat Shapley-waardes is.
Die Shapley-waarde is 'n konsep in spelteorie wat behels dat 'n "waarde" aan elke speler in die spel toegeken word. Dit word so versprei dat die waarde wat aan elke speler toegeken word, gebaseer is op die speler se bydrae tot die spel.
Hoe doen ons aansoek spelteorie tot masjienleer modelle?
Gestel dat elke kenmerk in ons model 'n "speler" is en dat die "speletjie" die funksie is wat die voorspelling uitvoer.
Die SHAP-metode skep 'n geweegde lineêre model wat Shapley-waardes aan verskeie kenmerke toeken. Eienskappe met hoë Shapley-waardes het 'n groter invloed op die uitkoms van die model terwyl kenmerke met lae Shapley-waardes minder impak het.
Gevolgtrekking
KI-verduidelikbaarheid is nie net belangrik om die regverdigheid en aanspreeklikheid van KI-stelsels te verseker nie, maar ook om vertroue in KI-tegnologie in die algemeen te bou.
Daar is nog baie navorsing wat gedoen moet word op die gebied van KI-verduidelikbaarheid, maar daar is 'n paar belowende benaderings wat ons kan help om die komplekse swartboks-KI-stelsels te verstaan wat vandag reeds wyd gebruik word.
Met verdere navorsing en ontwikkeling kan ons hoop om KI-stelsels te bou wat deursigtiger en makliker is om te verstaan. Intussen moet besighede en kundiges in velde soos gesondheidsorg bewus wees van die beperkings van KI-verduidelikbaarheid.
Lewer Kommentaar