La IA té el poder de millorar l'eficiència en diversos sectors, com ara l'empresa i la salut. No obstant això, la manca d'explicabilitat dificulta la nostra confiança en utilitzar-lo per a la presa de decisions.
Hem de confiar en el judici d'un algorisme?
És important que els responsables de la presa de decisions de qualsevol indústria entenguin les limitacions i els possibles biaixos models d’aprenentatge automàtic. Per garantir que aquests models es comporten com es pretén, la sortida de qualsevol sistema d'IA hauria de ser explicable per a un humà.
En aquest article, repassarem la importància de l'explicabilitat en IA. Oferirem una breu visió general dels tipus de mètodes utilitzats per obtenir explicacions dels models d'aprenentatge automàtic.
Què és l'IA explicable?
Explicable intel·ligència artificial o XAI es refereix a les tècniques i mètodes utilitzats per permetre als humans entendre com els models d'aprenentatge automàtic arriben a un determinat resultat.
Molts populars algorismes d'aprenentatge automàtic treballar com si fos una “caixa negra”. En l'aprenentatge automàtic, algorismes de caixa negra referir-se als models ML on és impossible verificar com una determinada entrada condueix a una sortida determinada. Fins i tot el desenvolupador de l'IA no podrà explicar completament com funciona l'algorisme.
Per exemple, s'utilitzen algorismes d'aprenentatge profund xarxes neuronals per identificar patrons a partir d'un munt de dades. Tot i que els investigadors i desenvolupadors d'IA entenen com funcionen les xarxes neuronals des d'un punt de vista tècnic, ni tan sols ells poden explicar completament com una xarxa neuronal va obtenir un resultat concret.
Algunes xarxes neuronals gestionen milions de paràmetres que funcionen a l'uníson per retornar el resultat final.
En situacions en què les decisions importen, la falta d'explicabilitat pot arribar a ser problemàtica.
Per què importa l'explicació
Explicabilitat proporciona una visió de com els models prenen decisions. Les empreses que planifiquen adaptar la IA per prendre decisions hauran de determinar si la IA ha utilitzat l'entrada adequada per prendre la millor decisió.
Els models que són inexplicables són un problema en diverses indústries. Per exemple, si una empresa utilitzés un algorisme per prendre decisions de contractació, seria del millor interès de tots tenir transparència sobre com l'algorisme decideix rebutjar un sol·licitant.
Un altre camp on aprenentatge profund Els algorismes s'utilitzen amb més freqüència és a la sanitat. En els casos en què els algorismes intenten detectar possibles signes de càncer, és important que els metges entenguin com va arribar el model a un diagnòstic concret. Es requereix un cert nivell d'explicació perquè els experts aprofitin al màxim la IA i no la segueixin cegament
Visió general dels algorismes d'IA explicables
Els algorismes d'IA explicables es divideixen en dues grans categories: models autointerpretables i explicacions post-hoc.
Models autointerpretables
Models autointerpretables són algorismes que un humà pot llegir i interpretar directament. En aquest cas, el model en si és l'explicació.
Alguns dels models autointerpretables més comuns inclouen arbres de decisió i models de regressió.
Per exemple, considerem un model de regressió lineal que prediu els preus de l'habitatge. Una regressió lineal significa que amb algun valor x, podrem predir el nostre valor objectiu y aplicant una funció lineal particular f.
Suposem que el nostre model utilitza la mida del lot com a entrada principal per determinar el preu de l'habitatge. Utilitzant la regressió lineal, vam poder trobar la funció y = 5000 * x on x és la quantitat de peus quadrats o la mida del lot.
Aquest model és llegible per l'home i és completament transparent.
Explicacions post-hoc
Explicacions post-hoc són un grup d'algorismes i tècniques que es poden utilitzar per afegir explicabilitat a altres algorismes.
La majoria de les tècniques d'explicació post-hoc no necessiten entendre com funciona l'algorisme. L'usuari només ha d'especificar l'entrada i la sortida resultant de l'algorisme objectiu.
Aquestes explicacions es divideixen a més en dos tipus: explicacions locals i explicacions globals.
Les explicacions locals tenen com a objectiu explicar un subconjunt d'entrades. Per exemple, donada una sortida determinada, una explicació local podrà identificar quins paràmetres han contribuït a prendre aquesta decisió.
Les explicacions globals tenen com a objectiu produir explicacions post-hoc de tot l'algorisme. Aquest tipus d'explicacions solen ser més difícils de fer. Els algorismes són complexos i hi pot haver innombrables paràmetres que són significatius per assolir el resultat final.
Exemples d'algoritmes d'explicació local
Entre les moltes tècniques utilitzades per aconseguir XAI, els algorismes utilitzats per a les explicacions locals són en què se centren la majoria dels investigadors.
En aquesta secció, donarem una ullada a alguns algorismes d'explicació locals populars i com funciona cadascun d'ells.
LIME
LIME (Explicador agnòstic del model interpretable local) és un algorisme que pot explicar les prediccions de qualsevol algorisme d'aprenentatge automàtic.
Com el seu nom indica, LIME és independent del model. Això significa que LIME podria funcionar per a qualsevol tipus de model. El model també és interpretable localment, és a dir, podem explicar el model utilitzant resultats locals en lloc d'explicar tot el model.
Fins i tot si el model que s'explica és una caixa negra, LIME crea un model lineal local al voltant de punts propers a una determinada posició.
LIMe proporciona un model lineal que s'aproxima al model al voltant d'una predicció, però no necessàriament globalment.
Podeu obtenir més informació sobre aquest algorisme visitant aquest dipòsit de codi obert.
SHAP
Explicacions d'additius Shapley (SHAP) és un mètode per explicar prediccions individuals. Per entendre com funciona SHAP, haurem d'explicar què són els valors de Shapley.
El valor Shapley és un concepte de la teoria de jocs que consisteix a assignar un "valor" a cada jugador del joc. Aquest es distribueix de manera que el valor assignat a cada jugador es basa en la contribució del jugador al joc.
Com ens presentem? teoria de jocs a aprenentatge automàtic models?
Suposem que cada característica del nostre model és un "jugador" i que el "joc" és la funció que genera la predicció.
El mètode SHAP crea un model lineal ponderat que assigna valors de Shapley a diverses característiques. Les característiques amb valors Shapley alts tenen una major influència en el resultat del model, mentre que les característiques amb valors Shapley baixos tenen menys impacte.
Conclusió
L'explicació de la IA és important no només per garantir l'equitat i la responsabilitat dels sistemes d'IA, sinó també per generar confiança en la tecnologia d'IA en general.
Encara hi ha molta investigació per fer en l'àrea de l'explicabilitat de la IA, però hi ha alguns enfocaments prometedors que ens poden ajudar a entendre els complexos sistemes d'IA de caixa negra que ja s'utilitzen àmpliament avui dia.
Amb més investigació i desenvolupament, podem esperar construir sistemes d'IA que siguin més transparents i més fàcils d'entendre. Mentrestant, les empreses i els experts en camps com l'assistència sanitària haurien de ser conscients de les limitacions de l'explicabilitat de la IA.
Deixa un comentari