L'IA hà u putere di migliurà l'efficienza in diversi settori cum'è l'affari è l'assistenza sanitaria. Tuttavia, a mancanza di spiegabilità impedisce a nostra fiducia in l'usu per a decisione.
Duvemu cunfidendu u ghjudiziu di un algoritmu?
Hè impurtante per i decisori in ogni industria per capiscenu e limitazioni è i preghjudizii potenziali mudelli di apprendimentu machine. Per assicurà chì questi mudelli si cumportanu cum'è previstu, l'output di qualsiasi sistema AI deve esse spiegabile à un umanu.
In questu articulu, andemu annantu à l'impurtanza di spiegabilità in AI. Avemu da furnisce una breve panoramica di i tipi di metudi utilizati per derivà spiegazioni da mudelli d'apprendimentu machine.
Cos'è l'IA Spiegabile?
Spiegà ntilliggenza artificiali o XAI si riferisce à i tecnichi è i metudi utilizati per permette à l'omu di capiscenu cumu i mudelli di apprendimentu di macchina arrivanu à una certa output.
Parechji pupulari algoritmi di apprendimentu di macchina travaglià cum'è s'ellu era una "scatola nera". In u machine learning, algoritmi di scatula nera riferite à mudelli ML induve hè impussibile di verificà cumu un certu input porta à un output particulari. Ancu u sviluppatore di l'AI ùn serà micca capaci di spiegà cumplettamente cumu funziona l'algoritmu.
Per esempiu, l'algoritmi di apprendimentu prufondu utilizanu Redes neuronali per identificà mudelli da una tonna di dati. Ancu s'è i ricercatori è i sviluppatori di l'AI capiscenu cumu funzionanu e rete neurali da un puntu di vista tecnicu, mancu ùn ponu spiegà cumplettamente cumu una rete neurale hè stata cun un risultatu particulari.
Certi rete neurali trattanu milioni di paràmetri chì tutti travaglianu à l'unison per rinvià u risultatu finali.
In situazioni induve e decisioni importanu, a mancanza di spiegabilità pò diventà problematica.
Perchè l'esplicabilità importa
Spiegabilità furnisce una visione di cumu i mudelli facenu decisioni. L'imprese chì pensanu à adattà l'AI per piglià decisioni anu da determinà se l'IA hà utilizatu l'input ghjusta per ghjunghje à a megliu decisione.
I mudelli chì sò inspiegabili sò un prublema in parechje industrii. Per esempiu, se una sucità avia aduprà un algoritmu per piglià e decisioni di assunzione, saria u megliu interessu di tutti per avè a trasparenza in quantu l'algoritmu decide di ricusà un candidatu.
Un altru campu induve studiu prufunnu l'algoritmi sò usati più frequentemente in a salute. In i casi induve l'algoritmi cercanu di detectà pussibuli signali di cancru, hè impurtante per i medichi per capiscenu cumu u mudellu hè ghjuntu à un diagnosi particulari. Un certu livellu di spiegà hè necessariu per l'esperti per prufittà pienamente di l'IA è micca seguità a cieca
Panoramica di l'algoritmi AI spiegabili
L'algoritmi AI spiegabili sò in duie categorie larghe: mudelli autointerpretabili è spiegazioni post-hoc.
Modelli autointerpretabili
Modelli autointerpretabili sò algoritmi chì un omu pò leghje è interpretà direttamente. In questu casu, u mudellu stessu hè a spiegazione.
Certi di i mudelli autointerpretabili più cumuni includenu l'arburi di decisione è i mudelli di regressione.
Per esempiu, cunsideremu un mudellu di regressione lineale chì predice i prezzi di casa. Una regressione lineale significa chì cù qualchì valore x, seremu capaci di predichendu u nostru valore di destinazione y appliendu una funzione lineale particular f.
Suppone chì u nostru mudellu usa a dimensione di lottu cum'è input principale per determinà u prezzu di a casa. Utilizendu a regressione lineale, pudemu avè a funzione y = 5000 * x induve x hè a quantità di piedi quadrati o grandezza di lottu.
Stu mudellu hè leggibile da l'omu è hè cumpletamente trasparente.
Spiegazioni Post-Hoc
Spiegazioni post-hoc sò un gruppu di algoritmi è tecniche chì ponu esse usatu per aghjunghje spiegabilità à altri algoritmi.
A maiò parte di e tecniche di spiegazione post-hoc ùn anu micca bisognu di capiscenu cumu funziona l'algoritmu. L'utilizatore solu deve specificà l'input è u risultatu risultatu di l'algoritmu di destinazione.
Sti spiegazioni sò ancu divisi in dui tipi: spiegazioni lucali è spiegazioni glubale.
L'esplicazioni lucali anu u scopu di spiegà un subset di inputs. Per esempiu, datu un output particulari, una spiegazione lucale serà capace di pinpoint quale paràmetri cuntribuitu à fà sta decisione.
Spiegazioni glubale anu scopu di pruduce spiegazioni post-hoc di tuttu l'algoritmu. Stu tipu di spiegazione hè tipicamenti più difficiuli di fà. L'algoritmi sò cumplessi è ponu esse innumerevoli paràmetri chì sò significativi per ottene u risultatu finali.
Esempii di Algoritmi di Spiegazione Locale
Trà i numerosi tecnichi utilizati per ottene XAI, l'algoritmi utilizati per spiegazioni lucali sò ciò chì a maiò parte di i circadori fucalizza.
In questa sezione, avemu da piglià un ochju à alcuni algoritmi di spiegazione lucali populari è cumu funziona ognuna di elli.
LIME
LIME (Spiegatore Locale Interpretable Model-Agnostic) hè un algoritmu chì pò spiegà e predizioni di qualsiasi algoritmu d'apprendimentu machine.
Cum'è u nome implica, LIME hè agnosticu di mudellu. Questu significa chì LIME puderia travaglià per qualsiasi tipu di mudellu. U mudellu hè ancu interpretabile in u locu, significatu chì pudemu spiegà u mudellu utilizendu risultati lucali invece di spiegà u mudellu sanu.
Ancu s'è u mudellu esse spiegatu hè una scatula nera, LIME crea un mudellu lineale lucale intornu à punti vicinu à una certa pusizione.
LIMe furnisce un mudellu lineale chì approssima u mudellu in a vicinanza di una predizione, ma micca necessariamente in u mondu.
Pudete amparà più nantu à questu algoritmu visitendu stu repository open-source.
SHAP
Spiegazioni Additive Shapley (SHAP) hè un metudu per spiegà predizioni individuali. Per capisce cumu travaglia SHAP, avemu da spiegà ciò chì i valori Shapley sò.
U valore Shapley hè un cuncettu in a teoria di u ghjocu chì implica l'assignazione di un "valore" à ogni ghjucadore in u ghjocu. Questu hè distribuitu cusì chì u valore attribuitu à ogni ghjucatore hè basatu annantu à a cuntribuzione di u ghjucatore à u ghjocu.
Cumu applichemu a teoria di u ghjocu à l'apprendimentu automaticu mudelli?
Suppone chì ogni funzione in u nostru mudellu hè un "player" è chì u "ghjocu" hè a funzione chì produce a prediczione.
U metudu SHAP crea un mudellu lineale ponderatu chì assigna valori Shapley à diverse caratteristiche. E caratteristiche cù valori Shapley alti anu una influenza più grande nantu à u risultatu di u mudellu, mentre chì e funzioni cù valori Shapley bassi anu menu impattu.
cunchiusioni
A spiegazione di l'AI hè impurtante micca solu per assicurà l'equità è a responsabilità di i sistemi AI, ma ancu per custruisce a fiducia in a tecnulugia AI in generale.
Ci hè ancu assai di ricerca per esse fatta in l'area di spiegabilità AI, ma ci sò qualchi approcci promettenti chì ponu aiutà à capiscenu i sistemi cumplessi di AI di scatula nera chì sò digià largamente usati oghje.
Cù più ricerca è sviluppu, pudemu sperà di custruisce sistemi AI chì sò più trasparenti è più faciuli di capiscenu. Intantu, l'imprese è l'esperti in campi cum'è l'assistenza sanitaria duveranu esse cuscenti di e limitazioni di spiegabilità AI.
Lascia un Audiolibro