A IA tem o poder de melhorar a eficiência em vários setores, como negócios e saúde. No entanto, a falta de explicabilidade dificulta nossa confiança em usá-lo para a tomada de decisões.
Devemos confiar no julgamento de um algoritmo?
É importante que os tomadores de decisão em qualquer setor entendam as limitações e os potenciais vieses de modelos de aprendizado de máquina. Para garantir que esses modelos estejam se comportando conforme o esperado, a saída de qualquer sistema de IA deve ser explicável para um ser humano.
Neste artigo, abordaremos a importância da explicabilidade na IA. Forneceremos uma breve visão geral dos tipos de métodos usados para derivar explicações de modelos de aprendizado de máquina.
O que é IA Explicável?
Explicável inteligência artificial ou XAI refere-se às técnicas e métodos usados para permitir que os humanos entendam como os modelos de aprendizado de máquina chegam a uma determinada saída.
Muitos populares algoritmos de aprendizado de máquina funciona como se fosse uma “caixa preta”. No aprendizado de máquina, algoritmos de caixa preta referem-se a modelos de ML onde é impossível verificar como uma determinada entrada leva a uma determinada saída. Mesmo o desenvolvedor da IA não será capaz de explicar completamente como o algoritmo funciona.
Por exemplo, algoritmos de aprendizado profundo usam redes neurais para identificar padrões de uma tonelada de dados. Embora os pesquisadores e desenvolvedores de IA entendam como as redes neurais funcionam do ponto de vista técnico, nem mesmo eles podem explicar completamente como uma rede neural chegou a um resultado específico.
Algumas redes neurais lidam com milhões de parâmetros que funcionam em uníssono para retornar o resultado final.
Em situações em que as decisões são importantes, a falta de explicabilidade pode se tornar problemática.
Por que a explicabilidade é importante
Explicação fornece informações sobre como os modelos tomam decisões. As empresas que planejam adaptar a IA para tomar decisões terão que determinar se a IA usou a entrada certa para chegar à melhor decisão.
Modelos inexplicáveis são um problema em vários setores. Por exemplo, se uma empresa usasse um algoritmo para tomar decisões de contratação, seria do interesse de todos ter transparência em como o algoritmo decide rejeitar um candidato.
Outro campo onde deep learning algoritmos estão sendo usados com mais frequência é na área da saúde. Nos casos em que algoritmos tentam detectar possíveis sinais de câncer, é importante que os médicos entendam como o modelo chegou a um determinado diagnóstico. Algum nível de explicabilidade é necessário para que os especialistas aproveitem ao máximo a IA e não a sigam cegamente
Visão geral dos algoritmos de IA explicáveis
Os algoritmos de IA explicáveis se dividem em duas grandes categorias: modelos autointerpretáveis e explicações post-hoc.
Modelos auto-interpretáveis
Modelos auto-interpretáveis são algoritmos que um humano pode ler e interpretar diretamente. Neste caso, o próprio modelo é a explicação.
Alguns dos modelos autointerpretáveis mais comuns incluem árvores de decisão e modelos de regressão.
Por exemplo, vamos considerar um modelo de regressão linear que prevê os preços das casas. Uma regressão linear significa que com algum valor x, seremos capazes de prever nosso valor alvo y aplicando uma função linear particular f.
Suponha que nosso modelo use o tamanho do lote como a principal entrada para determinar o preço da casa. Usando regressão linear, conseguimos chegar à função y = 5000 * x onde x é a quantidade de pés quadrados ou tamanho do lote.
Este modelo é legível por humanos e é completamente transparente.
Explicações Post-Hoc
Explicações post-hoc são um grupo de algoritmos e técnicas que podem ser usados para adicionar explicabilidade a outros algoritmos.
A maioria das técnicas de explicação post-hoc não precisa entender como o algoritmo funciona. O usuário só precisa especificar a entrada e a saída resultante do algoritmo de destino.
Essas explicações são divididas em dois tipos: explicações locais e explicações globais.
As explicações locais visam explicar um subconjunto de entradas. Por exemplo, dada uma saída específica, uma explicação local poderá identificar quais parâmetros contribuíram para a tomada dessa decisão.
As explicações globais visam produzir explicações post-hoc de todo o algoritmo. Este tipo de explicação é normalmente mais difícil de fazer. Os algoritmos são complexos e podem existir inúmeros parâmetros que são significativos para alcançar o resultado final.
Exemplos de Algoritmos de Explicação Local
Entre as muitas técnicas usadas para alcançar o XAI, os algoritmos usados para explicações locais são o foco da maioria dos pesquisadores.
Nesta seção, veremos alguns algoritmos populares de explicação local e como cada um deles funciona.
LIME
LIME (Explicador agnóstico de modelo interpretável local) é um algoritmo que pode explicar as previsões de qualquer algoritmo de aprendizado de máquina.
Como o nome indica, o LIME é independente de modelo. Isso significa que o LIME pode funcionar para qualquer tipo de modelo. O modelo também é interpretável localmente, o que significa que podemos explicar o modelo usando resultados locais em vez de explicar todo o modelo.
Mesmo que o modelo explicado seja uma caixa preta, o LIME cria um modelo linear local em torno de pontos próximos a uma determinada posição.
O LIMe fornece um modelo linear que se aproxima do modelo nas proximidades de uma previsão, mas não necessariamente globalmente.
Você pode aprender mais sobre esse algoritmo visitando este repositório de código aberto.
FORMAR
Explicações Aditivas Shapley (SHAP) é um método para explicar previsões individuais. Para entender como o SHAP funciona, teremos que explicar quais são os valores Shapley.
O valor Shapley é um conceito da teoria dos jogos que envolve atribuir um “valor” a cada jogador no jogo. Este é distribuído de tal forma que o valor atribuído a cada jogador é baseado na contribuição do jogador para o jogo.
Como nos aplicamos teoria dos jogos para aprendizado de máquina modelos?
Suponha que cada recurso em nosso modelo seja um “jogador” e que o “jogo” seja a função que gera a previsão.
O método SHAP cria um modelo linear ponderado que atribui valores Shapley a vários recursos. Recursos com valores Shapley altos têm maior influência no resultado do modelo, enquanto recursos com valores Shapley baixos têm menos impacto.
Conclusão
A explicabilidade da IA é importante não apenas para garantir a justiça e a responsabilidade dos sistemas de IA, mas também para criar confiança na tecnologia de IA em geral.
Ainda há muita pesquisa a ser feita na área de explicabilidade da IA, mas existem algumas abordagens promissoras que podem nos ajudar a entender os complexos sistemas de IA de caixa preta que já são amplamente utilizados hoje.
Com mais pesquisa e desenvolvimento, podemos esperar construir sistemas de IA que sejam mais transparentes e fáceis de entender. Enquanto isso, empresas e especialistas em áreas como saúde devem estar cientes das limitações da explicabilidade da IA.
Deixe um comentário