AI har kraften att förbättra effektiviteten inom olika sektorer som företag och hälsovård. Men bristen på förklaring hindrar vårt beroende av att använda det för beslutsfattande.
Ska vi lita på en algoritms omdöme?
Det är viktigt för beslutsfattare i alla branscher att förstå begränsningarna och potentiella fördomar maskininlärningsmodeller. För att säkerställa att dessa modeller beter sig som avsett bör resultatet från alla AI-system kunna förklaras för en människa.
I den här artikeln kommer vi att gå igenom vikten av förklaringsbarhet i AI. Vi kommer att ge en kort översikt över de typer av metoder som används för att härleda förklaringar från maskininlärningsmodeller.
Vad är Explainable AI?
Förklarlig artificiell intelligens eller XAI hänvisar till de tekniker och metoder som används för att låta människor förstå hur maskininlärningsmodeller kommer fram till en viss utdata.
Många populära maskininlärningsalgoritmer fungera som om det vore en "svart låda". I maskininlärning, svarta lådans algoritmer hänvisa till ML-modeller där det är omöjligt att verifiera hur en viss ingång leder till en viss utdata. Inte ens utvecklaren av AI:n kommer att kunna förklara fullt ut hur algoritmen fungerar.
Till exempel använder algoritmer för djupinlärning neurala nätverk att identifiera mönster från massor av data. Även om AI-forskare och -utvecklare förstår hur neurala nätverk fungerar ur teknisk synvinkel, kan inte ens de helt förklara hur ett neuralt nätverk kom fram till ett visst resultat.
Vissa neurala nätverk hanterar miljontals parametrar som alla arbetar unisont för att returnera det slutliga resultatet.
I situationer där beslut har betydelse kan bristen på förklarabarhet bli problematisk.
Varför är förklaringen viktig
Förklarbarhet ger insikt i hur modeller fattar beslut. Företag som planerar att anpassa AI för att fatta beslut måste avgöra om AI har använt rätt input för att komma fram till det bästa beslutet.
Modeller som är oförklarliga är ett problem i flera branscher. Om ett företag till exempel skulle använda en algoritm för att fatta anställningsbeslut, skulle det vara i allas bästa intresse att ha insyn i hur algoritmen beslutar att avvisa en sökande.
Ett annat fält där djupt lärande algoritmer används oftare inom vården. I de fall där algoritmer försöker upptäcka möjliga tecken på cancer är det viktigt för läkare att förstå hur modellen kommit fram till en viss diagnos. En viss grad av förklaring krävs för att experter ska dra full nytta av AI och inte blint följa den
Översikt över förklarliga AI-algoritmer
Förklarliga AI-algoritmer delas in i två breda kategorier: självtolkbara modeller och post-hoc-förklaringar.
Självtolkbara modeller
Självtolkbara modeller är algoritmer som en människa direkt kan läsa och tolka. I det här fallet är själva modellen förklaringen.
Några av de vanligaste självtolkbara modellerna inkluderar beslutsträd och regressionsmodeller.
Låt oss till exempel betrakta en linjär regressionsmodell som förutsäger huspriser. En linjär regression innebär att vi med något värde x kommer att kunna förutsäga vårt målvärde y genom att tillämpa en viss linjär funktion f.
Anta att vår modell använder tomtstorlek som huvudinsats för att bestämma huspriset. Med hjälp av linjär regression kunde vi komma fram till funktionen y = 5000 * x där x är mängden kvadratfot eller partistorlek.
Denna modell är läsbar för människor och är helt transparent.
Post-hoc förklaringar
Post-hoc förklaringar är en grupp algoritmer och tekniker som kan användas för att lägga till förklaring till andra algoritmer.
De flesta post-hoc förklaringstekniker behöver inte förstå hur algoritmen fungerar. Användaren behöver bara specificera indata och resulterande utdata från målalgoritmen.
Dessa förklaringar är vidare uppdelade i två typer: lokala förklaringar och globala förklaringar.
Lokala förklaringar syftar till att förklara en delmängd av indata. Till exempel, givet en viss utdata, kommer en lokal förklaring att kunna peka ut vilka parametrar som bidrog till att fatta det beslutet.
Globala förklaringar syftar till att producera post-hoc förklaringar av hela algoritmen. Denna typ av förklaring är vanligtvis svårare att göra. Algoritmer är komplexa och det kan finnas otaliga parametrar som är viktiga för att uppnå det slutliga resultatet.
Exempel på lokala förklaringsalgoritmer
Bland de många tekniker som används för att uppnå XAI är de algoritmer som används för lokala förklaringar vad de flesta forskare fokuserar på.
I det här avsnittet tar vi en titt på några populära lokala förklaringsalgoritmer och hur var och en av dem fungerar.
KALK
LIME (Local Interpretable Model-Agnostic Explainer) är en algoritm som kan förklara förutsägelserna för vilken maskininlärningsalgoritm som helst.
Som namnet antyder är LIME modellagnostisk. Detta innebär att LIME kan fungera för alla typer av modeller. Modellen är också lokalt tolkbar, vilket innebär att vi kan förklara modellen med hjälp av lokala resultat snarare än att förklara hela modellen.
Även om modellen som förklaras är en svart låda, skapar LIME en lokal linjär modell runt punkter nära en viss position.
LIMe tillhandahåller en linjär modell som approximerar modellen i närheten av en förutsägelse men inte nödvändigtvis globalt.
Du kan lära dig mer om den här algoritmen genom att besöka detta arkiv med öppen källkod.
SHAP
Shapley Additive Explanations (SHAP) är en metod för att förklara individuella förutsägelser. För att förstå hur SHAP fungerar måste vi förklara vad Shapley-värden är.
Shapley-värdet är ett koncept inom spelteorin som innebär att tilldela ett "värde" till varje spelare i spelet. Detta fördelas så att värdet som tilldelas varje spelare baseras på spelarens bidrag till spelet.
Hur ansöker vi? spelteori till maskininlärning modeller?
Anta att varje funktion i vår modell är en "spelare" och att "spelet" är den funktion som ger ut förutsägelsen.
SHAP-metoden skapar en viktad linjär modell som tilldelar Shapley-värden till olika funktioner. Funktioner med höga Shapley-värden har ett större inflytande på resultatet av modellen medan funktioner med låga Shapley-värden har mindre inverkan.
Slutsats
AI-förklaring är viktig inte bara för att säkerställa rättvisa och ansvarsskyldighet för AI-system, utan också för att bygga förtroende för AI-teknik i allmänhet.
Det finns fortfarande mycket forskning att göra inom området för AI-förklarbarhet, men det finns några lovande tillvägagångssätt som kan hjälpa oss att förstå de komplexa black box AI-systemen som redan används i stor utsträckning idag.
Med ytterligare forskning och utveckling kan vi hoppas kunna bygga AI-system som är mer transparenta och lättare att förstå. Under tiden bör företag och experter inom områden som hälso- och sjukvård vara medvetna om begränsningarna för AI-förklaring.
Kommentera uppropet