AI huet d'Kraaft fir d'Effizienz a verschiddene Secteuren wéi Geschäfts- a Gesondheetsariichtung ze verbesseren. Wéi och ëmmer, de Mangel un Erklärbarkeet behënnert eis Ofhängegkeet dovun ze benotzen fir d'Entscheedung ze huelen.
Solle mir d'Uerteel vun engem Algorithmus vertrauen?
Et ass wichteg fir Décideuren an all Industrie d'Aschränkungen a potenziell Biases ze verstoen Maschinn léieren Modeller. Fir sécherzestellen datt dës Modeller sech wéi virgesinn behuelen, soll d'Output vun all AI System engem Mënsch erkläert ginn.
An dësem Artikel wäerte mir iwwer d'Wichtegkeet vun der Erklärbarkeet an AI goen. Mir ginn e kuerzen Iwwerbléck iwwer d'Zorte vu Methoden, déi benotzt gi fir Erklärungen aus Maschinnléiermodeller ofzeleeën.
Wat ass Erklärbar AI?
Erklärbar Kënschtlech Intelligenz oder XAI bezitt sech op d'Techniken a Methoden, déi benotzt gi fir de Mënsch ze erlaben ze verstoen wéi Maschinnléiere Modeller zu engem bestëmmten Output kommen.
Vill populär Maschinn Léieren Algorithmen schaffen wéi wann et eng "schwaarz Këscht" wier. Am Maschinn Léieren, schwaarz Këscht Algorithmen bezitt sech op ML Modeller wou et onméiglech ass ze verifizéieren wéi e bestëmmten Input zu engem bestëmmten Output féiert. Och den Entwéckler vun der AI wäert net fäeg sinn voll z'erklären wéi den Algorithmus funktionnéiert.
Zum Beispill, déif Léieren Algorithmen benotzen neural Netzwierker Mustere vun enger Tonn vun Daten z'identifizéieren. Och wann AI Fuerscher an Entwéckler verstinn wéi neural Netzwierker aus enger technescher Siicht funktionnéieren, net emol kënnen se komplett erkläre wéi en neuralt Netzwierk mat engem bestëmmte Resultat koum.
E puer neural Netzwierker handhaben Millioune Parameteren déi all zesummen schaffen fir d'Finale Resultat zréckzekommen.
A Situatiounen wou Entscheedungen wichteg sinn, kann de Mangel un Erklärbarkeet problematesch ginn.
Firwat ass Erklärbarkeet wichteg
Erklärbarkeet gëtt Abléck an wéi Modeller Décisiounen huelen. Geschäfter déi plangen AI unzepassen fir Entscheedungen ze treffen, musse bestëmmen ob d'AI de richtegen Input benotzt huet fir zu déi bescht Entscheedung ze kommen.
Modeller déi onerklärbar sinn sinn e Problem a verschiddenen Industrien. Zum Beispill, wann eng Firma en Algorithmus géif benotzen fir d'Decisioune fir d'Astellen ze huelen, wier et fir jiddereen säi Bescht fir Transparenz ze hunn wéi den Algorithmus decidéiert e Kandidat ze refuséieren.
Aneren Terrain wou ze léieren Algorithmen gi méi dacks an der Gesondheetsariichtung benotzt. A Fäll wou Algorithmen probéieren méiglech Zeeche vu Kriibs z'entdecken, ass et wichteg fir Dokteren ze verstoen wéi de Modell zu enger bestëmmter Diagnos ukomm ass. E puer Erklärbarkeetsniveau ass erfuerderlech fir Experten voll ze profitéieren vun AI an net blann ze verfollegen
Iwwersiicht vun Erklärbare AI Algorithmen
Erklärbar AI Algorithmen falen an zwou breet Kategorien: selbst interpretéierbar Modeller a Post-hoc Erklärungen.
Self-interpretable Modeller
Self-interpretable Modeller sinn Algorithmen déi e Mënsch direkt liesen an interpretéiere kann. An dësem Fall ass de Modell selwer d'Erklärung.
E puer vun den heefegsten selbstinterpretablen Modeller enthalen Entscheedungsbeem a Regressiounsmodeller.
Loosst eis zum Beispill e linearem Regressiounsmodell betruechten deen d'Hauspräisser virausgesot. Eng linear Regressioun bedeit datt mir mat engem Wäert x fäeg sinn eisen Zilwäert y virauszesoen andeems Dir eng bestëmmte linear Funktioun f applizéiert.
Ugeholl datt eise Modell vill Gréisst als Haaptinput benotzt fir den Hauspräis ze bestëmmen. Mat linearer Regressioun konnte mir mat der Funktioun y = 5000 * x kommen, wou x d'Quantitéit vu Quadratmeter oder Lotgréisst ass.
Dëse Modell ass mënschlech liesbar an ass komplett transparent.
Post-Hoc Erklärungen
Post-hoc Erklärungen sinn eng Grupp vun Algorithmen an Techniken déi benotzt kënne fir Erklärbarkeet un aner Algorithmen ze addéieren.
Déi meescht Post-hoc Erklärungstechniken brauchen net ze verstoen wéi den Algorithmus funktionnéiert. De Benotzer brauch nëmmen den Input an de resultéierende Output vum Zilalgorithmus ze spezifizéieren.
Dës Erklärunge ginn weider an zwou Aarte opgedeelt: lokal Erklärungen a global Erklärungen.
Lokal Erklärungen zielen eng Ënnerdeelung vun Inputen z'erklären. Zum Beispill, mat engem bestëmmten Output, wäert eng lokal Erklärung fäeg sinn ze bestëmmen wéi eng Parameteren dozou bäigedroen hunn dës Entscheedung ze treffen.
Global Erklärungen zielen fir post-hoc Erklärunge vum ganze Algorithmus ze produzéieren. Dës Zort Erklärung ass typesch méi schwéier ze maachen. Algorithmen si komplex an et kënnen eng Onmass Parameteren sinn déi bedeitend sinn fir d'Endresultat z'erreechen.
Beispiller vu lokalen Erklärung Algorithmen
Ënnert de villen Techniken, déi benotzt gi fir XAI z'erreechen, sinn d'Algorithmen, déi fir lokal Erklärungen benotzt ginn, op wat déi meescht Fuerscher konzentréieren.
An dëser Sektioun wäerte mir e puer populär lokal Erklärung Algorithmen kucken a wéi jidderee vun hinnen funktionnéiert.
LËMME
LIME (Lokal Interpretable Model-Agnostic Explainer) ass en Algorithmus deen d'Prognosen vun all Maschinnléier Algorithmus erkläre kann.
Wéi den Numm et scho seet, ass LIME modellagnostesch. Dëst bedeit datt LIME fir all Typ vu Modell funktionnéiert. De Modell ass och lokal interpretéierbar, dat heescht datt mir de Modell mat lokalen Resultater erkläre kënnen anstatt de ganze Modell z'erklären.
Och wann de Modell, deen erkläert gëtt, eng schwaarz Këscht ass, erstellt LIME e lokalen linearem Modell ronderëm Punkten no bei enger bestëmmter Positioun.
LIMe liwwert e linearem Modell deen de Modell an der Géigend vun enger Prognose approximéiert awer net onbedéngt global.
Dir kënnt méi iwwer dësen Algorithmus léieren andeems Dir dësen Open-Source Repository besicht.
SCHAP
Shapley Additive Erklärungen (SHAP) ass eng Method fir individuell Prognosen z'erklären. Fir ze verstoen wéi SHAP funktionnéiert, musse mir erkläre wat Shapley Wäerter sinn.
De Shapley-Wäert ass e Konzept an der Spilltheorie, déi involvéiert ass, e "Wäert" un all Spiller am Spill ze ginn. Dëst gëtt sou verdeelt datt de Wäert deen all Spiller zougewisen ass baséiert op dem Spiller säi Bäitrag zum Spill.
Wéi bewerbe mir Spilltheorie zum Maschinnléieren Modeller?
Ugeholl datt all Feature an eisem Modell e "Spiller" ass an datt de "Spill" d'Funktioun ass, déi d'Prognose ausgëtt.
D'SHAP-Methode erstellt e gewiichtte linear Modell deen Shapley Wäerter u verschidde Funktiounen zouginn. Features mat héije Shapley Wäerter hunn e méi groussen Afloss op d'Resultat vum Modell, während Features mat nidderegen Shapley Wäerter manner Impakt hunn.
Konklusioun
AI Erklärbarkeet ass wichteg net nëmme fir d'Gerechtegkeet an d'Verantwortung vun AI Systemer ze garantéieren, awer och fir Vertrauen an AI Technologie am Allgemengen ze bauen.
Et gëtt nach ëmmer vill Fuerschung am Beräich vun der AI Erklärbarkeet gemaach, awer et ginn e puer verspriechend Approche déi eis hëllefe kënnen déi komplex Black Box AI Systemer ze verstoen déi haut scho wäit benotzt ginn.
Mat weider Fuerschung an Entwécklung kënne mir hoffen AI Systemer ze bauen déi méi transparent a méi einfach ze verstoen sinn. An der Tëschenzäit sollten Geschäfter an Experten a Beräicher wéi Gesondheetsariichtung d'Limitatioune vun der AI Erklärbarkeet bewosst sinn.
Hannerlooss eng Äntwert