La IA tiene el poder de mejorar la eficiencia en varios sectores, como los negocios y la atención médica. Sin embargo, la falta de explicabilidad dificulta nuestra confianza en su uso para la toma de decisiones.
¿Deberíamos confiar en el juicio de un algoritmo?
Es importante que los tomadores de decisiones en cualquier industria entiendan las limitaciones y posibles sesgos de modelos de aprendizaje automático. Para garantizar que estos modelos se comporten según lo previsto, el resultado de cualquier sistema de IA debe ser explicable a un ser humano.
En este artículo, repasaremos la importancia de la explicabilidad en la IA. Proporcionaremos una breve descripción general de los tipos de métodos utilizados para derivar explicaciones de los modelos de aprendizaje automático.
¿Qué es la IA explicable?
Explicable inteligencia artificial o XAI se refiere a las técnicas y métodos utilizados para permitir que los humanos comprendan cómo los modelos de aprendizaje automático llegan a un determinado resultado.
Muchos populares algoritmos de aprendizaje automático funciona como si fuera una “caja negra”. En el aprendizaje automático, algoritmos de caja negra se refieren a modelos ML donde es imposible verificar cómo una determinada entrada conduce a una salida particular. Incluso el desarrollador de la IA no podrá explicar completamente cómo funciona el algoritmo.
Por ejemplo, los algoritmos de aprendizaje profundo utilizan redes neuronales para identificar patrones a partir de una tonelada de datos. Aunque los investigadores y desarrolladores de IA entienden cómo funcionan las redes neuronales desde un punto de vista técnico, ni siquiera ellos pueden explicar completamente cómo una red neuronal obtuvo un resultado particular.
Algunas redes neuronales manejan millones de parámetros que funcionan todos al unísono para devolver el resultado final.
En situaciones donde las decisiones importan, la falta de explicabilidad puede volverse problemática.
¿Por qué importa la explicabilidad?
Explicabilidad proporciona información sobre cómo los modelos toman decisiones. Las empresas que planean adaptar la IA para tomar decisiones deberán determinar si la IA ha utilizado la entrada correcta para llegar a la mejor decisión.
Los modelos que son inexplicables son un problema en varias industrias. Por ejemplo, si una empresa usara un algoritmo para tomar decisiones de contratación, lo mejor para todos sería tener transparencia sobre cómo el algoritmo decide rechazar a un candidato.
Otro campo donde deep learning los algoritmos se están utilizando con más frecuencia en el cuidado de la salud. En los casos en que los algoritmos intentan detectar posibles signos de cáncer, es importante que los médicos entiendan cómo llegó el modelo a un diagnóstico en particular. Se requiere cierto nivel de explicabilidad para que los expertos aprovechen al máximo la IA y no la sigan ciegamente.
Descripción general de los algoritmos de IA explicables
Los algoritmos de IA explicables se dividen en dos categorías amplias: modelos autointerpretables y explicaciones post-hoc.
Modelos autointerpretables
Modelos autointerpretables son algoritmos que un humano puede leer e interpretar directamente. En este caso, el modelo mismo es la explicación.
Algunos de los modelos autointerpretables más comunes incluyen árboles de decisión y modelos de regresión.
Por ejemplo, consideremos un modelo de regresión lineal que predice los precios de la vivienda. Una regresión lineal significa que con algún valor x, podremos predecir nuestro valor objetivo y aplicando una función lineal particular f.
Suponga que nuestro modelo usa el tamaño del lote como la entrada principal para determinar el precio de la vivienda. Usando la regresión lineal, pudimos llegar a la función y = 5000 * x, donde x es la cantidad de pies cuadrados o el tamaño del lote.
Este modelo es legible por humanos y es completamente transparente.
Explicaciones post-hoc
Explicaciones post-hoc son un grupo de algoritmos y técnicas que se pueden usar para agregar explicabilidad a otros algoritmos.
La mayoría de las técnicas de explicación post-hoc no necesitan comprender cómo funciona el algoritmo. El usuario solo necesita especificar la entrada y la salida resultante del algoritmo de destino.
Estas explicaciones se dividen además en dos tipos: explicaciones locales y explicaciones globales.
Las explicaciones locales tienen como objetivo explicar un subconjunto de entradas. Por ejemplo, dada una salida en particular, una explicación local podrá señalar qué parámetros contribuyeron a tomar esa decisión.
Las explicaciones globales tienen como objetivo producir explicaciones post-hoc de todo el algoritmo. Este tipo de explicación suele ser más difícil de hacer. Los algoritmos son complejos y puede haber innumerables parámetros que son importantes para lograr el resultado final.
Ejemplos de algoritmos de explicación local
Entre las muchas técnicas utilizadas para lograr XAI, los algoritmos utilizados para las explicaciones locales son en lo que se centran la mayoría de los investigadores.
En esta sección, veremos algunos algoritmos de explicación locales populares y cómo funciona cada uno de ellos.
LIME
LIME (Modelo Local Interpretable-Explicador Agnóstico) es un algoritmo que puede explicar las predicciones de cualquier algoritmo de aprendizaje automático.
Como su nombre lo indica, LIME es independiente del modelo. Esto significa que LIME podría funcionar para cualquier tipo de modelo. El modelo también se puede interpretar localmente, lo que significa que podemos explicar el modelo utilizando resultados locales en lugar de explicar el modelo completo.
Incluso si el modelo que se explica es una caja negra, LIME crea un modelo lineal local alrededor de puntos cercanos a una determinada posición.
LIMe proporciona un modelo lineal que se aproxima al modelo en la vecindad de una predicción pero no necesariamente globalmente.
Puede obtener más información sobre este algoritmo visitando este repositorio de código abierto.
FORMA
Explicaciones aditivas de Shapley (SHAP) es un método para explicar predicciones individuales. Para entender cómo funciona SHAP, tendremos que explicar qué son los valores de Shapley.
El valor de Shapley es un concepto en la teoría de juegos que implica asignar un "valor" a cada jugador en el juego. Esto se distribuye de tal manera que el valor asignado a cada jugador se basa en la contribución del jugador al juego.
¿Cómo aplicamos? de la teoría de juegos al aprendizaje automático modelos?
Supongamos que cada característica de nuestro modelo es un "jugador" y que el "juego" es la función que genera la predicción.
El método SHAP crea un modelo lineal ponderado que asigna valores de Shapley a varias características. Las características con valores altos de Shapley tienen una mayor influencia en el resultado del modelo, mientras que las características con valores bajos de Shapley tienen un impacto menor.
Conclusión
La explicabilidad de la IA es importante no solo para garantizar la equidad y la responsabilidad de los sistemas de IA, sino también para generar confianza en la tecnología de IA en general.
Todavía queda mucha investigación por hacer en el área de la explicabilidad de la IA, pero existen algunos enfoques prometedores que pueden ayudarnos a comprender los complejos sistemas de IA de caja negra que ya se usan ampliamente en la actualidad.
Con más investigación y desarrollo, podemos esperar construir sistemas de IA que sean más transparentes y fáciles de entender. Mientras tanto, las empresas y los expertos en campos como la atención médica deben ser conscientes de las limitaciones de la explicabilidad de la IA.
Deje un comentario