L'IA a le pouvoir d'améliorer l'efficacité dans divers secteurs tels que les affaires et la santé. Cependant, le manque d'explicabilité entrave notre recours à son utilisation pour la prise de décision.
Doit-on se fier au jugement d'un algorithme ?
Il est important que les décideurs de toute industrie comprennent les limites et les biais potentiels de modèles d'apprentissage automatique. Pour garantir que ces modèles se comportent comme prévu, la sortie de tout système d'IA doit être explicable à un humain.
Dans cet article, nous passerons en revue l'importance de l'explicabilité dans l'IA. Nous donnerons un bref aperçu des types de méthodes utilisées pour dériver des explications à partir de modèles d'apprentissage automatique.
Qu'est-ce que l'IA explicable ?
Explicable intelligence artificielle ou XAI fait référence aux techniques et méthodes utilisées pour permettre aux humains de comprendre comment les modèles d'apprentissage automatique arrivent à une certaine sortie.
Beaucoup populaire algorithmes d'apprentissage automatique fonctionne comme s'il s'agissait d'une "boîte noire". En apprentissage automatique, algorithmes de boîte noire se référer aux modèles ML où il est impossible de vérifier comment une certaine entrée mène à une sortie particulière. Même le développeur de l'IA ne sera pas en mesure d'expliquer pleinement le fonctionnement de l'algorithme.
Par exemple, les algorithmes d'apprentissage en profondeur utilisent les réseaux de neurones pour identifier des modèles à partir d'une tonne de données. Même si les chercheurs et les développeurs en intelligence artificielle comprennent le fonctionnement des réseaux de neurones d'un point de vue technique, ils ne peuvent même pas expliquer pleinement comment un réseau de neurones a abouti à un résultat particulier.
Certains réseaux de neurones gèrent des millions de paramètres qui fonctionnent tous à l'unisson pour renvoyer le résultat final.
Dans les situations où les décisions sont importantes, le manque d'explicabilité peut devenir problématique.
Pourquoi l'explicabilité est-elle importante
Explicabilité donne un aperçu de la façon dont les modèles prennent des décisions. Les entreprises qui envisagent d'adapter l'IA pour prendre des décisions devront déterminer si l'IA a utilisé la bonne entrée pour arriver à la meilleure décision.
Les modèles inexplicables sont un problème dans plusieurs industries. Par exemple, si une entreprise devait utiliser un algorithme pour prendre des décisions d'embauche, il serait dans l'intérêt de tous d'avoir de la transparence sur la façon dont l'algorithme décide de rejeter un candidat.
Un autre domaine où l'apprentissage en profondeur les algorithmes sont utilisés plus fréquemment dans le domaine de la santé. Dans les cas où les algorithmes tentent de détecter d'éventuels signes de cancer, il est important que les médecins comprennent comment le modèle est arrivé à un diagnostic particulier. Un certain niveau d'explicabilité est nécessaire pour que les experts tirent pleinement parti de l'IA et ne la suivent pas aveuglément
Présentation des algorithmes d'IA explicables
Les algorithmes d'IA explicables se répartissent en deux grandes catégories : les modèles auto-interprétables et les explications post-hoc.
Modèles auto-interprétables
Modèles auto-interprétables sont des algorithmes qu'un humain peut directement lire et interpréter. Dans ce cas, le modèle lui-même est l'explication.
Certains des modèles auto-interprétables les plus courants incluent les arbres de décision et les modèles de régression.
Par exemple, considérons un modèle de régression linéaire qui prédit les prix des maisons. Une régression linéaire signifie qu'avec une certaine valeur x, nous pourrons prédire notre valeur cible y en appliquant une fonction linéaire particulière f.
Supposons que notre modèle utilise la taille du terrain comme entrée principale pour déterminer le prix de l'immobilier. En utilisant la régression linéaire, nous avons pu trouver la fonction y = 5000 * x où x est la quantité de pieds carrés ou la taille du lot.
Ce modèle est lisible par l'homme et est complètement transparent.
Explications post-hoc
Explications post-hoc sont un groupe d'algorithmes et de techniques qui peuvent être utilisés pour ajouter de l'explicabilité à d'autres algorithmes.
La plupart des techniques d'explication post-hoc n'ont pas besoin de comprendre le fonctionnement de l'algorithme. L'utilisateur n'a qu'à spécifier l'entrée et la sortie résultante de l'algorithme cible.
Ces explications sont ensuite divisées en deux types : les explications locales et les explications globales.
Les explications locales visent à expliquer un sous-ensemble d'entrées. Par exemple, étant donné une sortie particulière, une explication locale sera en mesure d'identifier les paramètres qui ont contribué à prendre cette décision.
Les explications globales visent à produire des explications post-hoc de l'ensemble de l'algorithme. Ce type d'explication est généralement plus difficile à faire. Les algorithmes sont complexes et il peut y avoir d'innombrables paramètres qui sont importants pour obtenir le résultat final.
Exemples d'algorithmes d'explication locale
Parmi les nombreuses techniques utilisées pour réaliser XAI, les algorithmes utilisés pour les explications locales sont ce sur quoi la plupart des chercheurs se concentrent.
Dans cette section, nous examinerons certains algorithmes d'explication locale populaires et comment chacun d'eux fonctionne.
LIME
LIME (explication locale interprétable et indépendante du modèle) est un algorithme qui peut expliquer les prédictions de n'importe quel algorithme d'apprentissage automatique.
Comme son nom l'indique, LIME est indépendant du modèle. Cela signifie que LIME peut fonctionner pour n'importe quel type de modèle. Le modèle est également interprétable localement, ce qui signifie que nous pouvons expliquer le modèle à l'aide de résultats locaux plutôt que d'expliquer l'ensemble du modèle.
Même si le modèle expliqué est une boîte noire, LIME crée un modèle linéaire local autour de points proches d'une certaine position.
LIMe fournit un modèle linéaire qui se rapproche du modèle au voisinage d'une prédiction mais pas nécessairement globalement.
Vous pouvez en savoir plus sur cet algorithme en visitant ce référentiel open source.
FORME
Explications additives de Shapley (SHAP) est une méthode pour expliquer les prédictions individuelles. Pour comprendre le fonctionnement de SHAP, nous devrons expliquer quelles sont les valeurs de Shapley.
La valeur de Shapley est un concept de la théorie des jeux qui consiste à attribuer une « valeur » à chaque joueur dans le jeu. Celle-ci est répartie de telle sorte que la valeur attribuée à chaque joueur est basée sur la contribution du joueur au jeu.
Comment appliquons-nous de la théorie des jeux à l'apprentissage automatique des modèles?
Supposons que chaque caractéristique de notre modèle soit un « joueur » et que le « jeu » soit la fonction qui produit la prédiction.
La méthode SHAP crée un modèle linéaire pondéré qui attribue des valeurs de Shapley à diverses caractéristiques. Les caractéristiques avec des valeurs de Shapley élevées ont une plus grande influence sur le résultat du modèle, tandis que les caractéristiques avec des valeurs de Shapley faibles ont moins d'impact.
Conclusion
L'explicabilité de l'IA est importante non seulement pour garantir l'équité et la responsabilité des systèmes d'IA, mais aussi pour renforcer la confiance dans la technologie de l'IA en général.
Il reste encore beaucoup de recherches à faire dans le domaine de l'explicabilité de l'IA, mais il existe des approches prometteuses qui peuvent nous aider à comprendre les systèmes complexes d'IA en boîte noire qui sont déjà largement utilisés aujourd'hui.
Avec de nouvelles recherches et développements, nous pouvons espérer construire des systèmes d'IA plus transparents et plus faciles à comprendre. En attendant, les entreprises et les experts dans des domaines tels que la santé doivent être conscients des limites de l'explicabilité de l'IA.
Soyez sympa! Laissez un commentaire