A IA ten o poder de mellorar a eficiencia en varios sectores, como os negocios e a saúde. Non obstante, a falta de explicabilidade dificulta a nosa confianza en utilizalo para a toma de decisións.
Debemos confiar no xuízo dun algoritmo?
É importante que os tomadores de decisións de calquera industria comprendan as limitacións e os prexuízos potenciais modelos de aprendizaxe automática. Para garantir que estes modelos se comportan como se pretende, a saída de calquera sistema de IA debería ser explicable para un humano.
Neste artigo, repasaremos a importancia da explicabilidade na IA. Ofreceremos unha breve visión xeral dos tipos de métodos utilizados para obter explicacións dos modelos de aprendizaxe automática.
Que é a IA explicable?
Explicable intelixencia artificial ou XAI refírese ás técnicas e métodos utilizados para permitir aos humanos comprender como os modelos de aprendizaxe automática chegan a un determinado resultado.
Moitos populares algoritmos de aprendizaxe automática traballar coma se dunha “caixa negra” se tratase. Na aprendizaxe automática, Algoritmos de caixa negra refírense a modelos de ML onde é imposible verificar como unha determinada entrada conduce a unha determinada saída. Incluso o desenvolvedor da IA non poderá explicar completamente como funciona o algoritmo.
Por exemplo, utilizan algoritmos de aprendizaxe profunda redes neuronales para identificar patróns a partir dunha tonelada de datos. Aínda que os investigadores e desenvolvedores de IA entenden como funcionan as redes neuronais desde un punto de vista técnico, nin sequera poden explicar completamente como unha rede neuronal deu un resultado particular.
Algunhas redes neuronais manexan millóns de parámetros que todos traballan ao unísono para devolver o resultado final.
Nas situacións nas que as decisións importan, a falta de explicabilidade pode chegar a ser problemática.
Por que importa a explicación
Explicabilidade proporciona información sobre como os modelos toman decisións. As empresas que planean adaptar a IA para tomar decisións terán que determinar se a IA utilizou a entrada correcta para tomar a mellor decisión.
Os modelos que son inexplicables son un problema en varias industrias. Por exemplo, se unha empresa utilizase un algoritmo para tomar decisións de contratación, sería do mellor interese de todos ter transparencia sobre como o algoritmo decide rexeitar a un solicitante.
Outro campo onde aprendizaxe profunda Os algoritmos están sendo usados con máis frecuencia é na sanidade. Nos casos nos que os algoritmos intentan detectar posibles signos de cancro, é importante que os médicos comprendan como chegou o modelo a un diagnóstico particular. Requírese certo nivel de explicación para que os expertos aproveiten ao máximo a IA e non a sigan cegamente
Visión xeral dos algoritmos de IA explicables
Os algoritmos de intelixencia artificial explicables divídense en dúas grandes categorías: modelos autointerpretables e explicacións post-hoc.
Modelos autointerpretables
Modelos autointerpretables son algoritmos que un humano pode ler e interpretar directamente. Neste caso, o propio modelo é a explicación.
Algúns dos modelos autointerpretables máis comúns inclúen árbores de decisión e modelos de regresión.
Por exemplo, consideremos un modelo de regresión lineal que prevé os prezos das vivendas. Unha regresión lineal significa que con algún valor x, poderemos predicir o noso valor obxectivo y aplicando unha función lineal particular f.
Supoñamos que o noso modelo utiliza o tamaño do lote como entrada principal para determinar o prezo da vivenda. Usando a regresión lineal, puidemos crear a función y = 5000 * x onde x é a cantidade de pés cadrados ou tamaño do lote.
Este modelo é lexible polo home e é completamente transparente.
Explicacións post-hoc
Explicacións post-hoc son un grupo de algoritmos e técnicas que se poden usar para engadir explicabilidade a outros algoritmos.
A maioría das técnicas de explicación post-hoc non precisan comprender como funciona o algoritmo. O usuario só precisa especificar a entrada e a saída resultante do algoritmo de destino.
Estas explicacións divídense ademais en dous tipos: explicacións locais e explicacións globais.
As explicacións locais pretenden explicar un subconxunto de entradas. Por exemplo, dada unha saída en particular, unha explicación local poderá identificar os parámetros que contribuíron a tomar esa decisión.
As explicacións globais pretenden producir explicacións post-hoc de todo o algoritmo. Este tipo de explicación adoita ser máis difícil de facer. Os algoritmos son complexos e pode haber infinidade de parámetros que sexan significativos para acadar o resultado final.
Exemplos de algoritmos de explicación local
Entre as moitas técnicas utilizadas para conseguir XAI, os algoritmos utilizados para as explicacións locais son nos que se centran a maioría dos investigadores.
Nesta sección, daremos unha ollada a algúns algoritmos de explicación locais populares e como funciona cada un deles.
LIMO
LIME (Explicador agnóstico do modelo interpretable local) é un algoritmo que pode explicar as predicións de calquera algoritmo de aprendizaxe automática.
Como o nome indica, LIME é independente do modelo. Isto significa que LIME pode funcionar para calquera tipo de modelo. O modelo tamén é interpretable localmente, o que significa que podemos explicar o modelo utilizando resultados locais en lugar de explicar o modelo completo.
Aínda que o modelo que se explica sexa unha caixa negra, LIME crea un modelo lineal local arredor de puntos próximos a unha determinada posición.
LIMe proporciona un modelo lineal que se aproxima ao modelo nas proximidades dunha predición pero non necesariamente globalmente.
Podes obter máis información sobre este algoritmo visitando este repositorio de código aberto.
SHAP
Explicacións aditivas de Shapley (SHAP) é un método para explicar predicións individuais. Para entender como funciona SHAP, teremos que explicar cales son os valores de Shapley.
O valor de Shapley é un concepto da teoría de xogos que implica asignar un "valor" a cada xogador do xogo. Este distribúese de forma que o valor asignado a cada xogador baséase na contribución do xogador ao xogo.
Como nos presentamos? teoría de xogos á aprendizaxe automática modelos?
Supoña que cada característica do noso modelo é un "xogador" e que o "xogo" é a función que produce a predición.
O método SHAP crea un modelo lineal ponderado que asigna valores de Shapley a varias características. As funcións con valores Shapley altos teñen unha maior influencia no resultado do modelo mentres que as funcións con valores Shapley baixos teñen menos impacto.
Conclusión
A explicación da IA é importante non só para garantir a xustiza e a responsabilidade dos sistemas de IA, senón tamén para xerar confianza na tecnoloxía de IA en xeral.
Aínda quedan moitas investigacións por facer na área da explicación da IA, pero hai algúns enfoques prometedores que poden axudarnos a comprender os complexos sistemas de IA de caixa negra que xa se usan amplamente na actualidade.
Con máis investigación e desenvolvemento, podemos esperar construír sistemas de IA que sexan máis transparentes e máis fáciles de entender. Mentres tanto, as empresas e os expertos en campos como a saúde deberían ser conscientes das limitacións da explicabilidade da IA.
Deixe unha resposta