L'IA ha il potere di migliorare l'efficienza in vari settori come il business e l'assistenza sanitaria. Tuttavia, la mancanza di spiegabilità ostacola la nostra dipendenza dall'utilizzarlo per il processo decisionale.
Dovremmo fidarci del giudizio di un algoritmo?
È importante che i responsabili delle decisioni in qualsiasi settore comprendano i limiti e i potenziali pregiudizi di modelli di apprendimento automatico. Per garantire che questi modelli si comportino come previsto, l'output di qualsiasi sistema di intelligenza artificiale dovrebbe essere spiegabile a un essere umano.
In questo articolo, esamineremo l'importanza della spiegabilità nell'IA. Forniremo una breve panoramica dei tipi di metodi utilizzati per derivare spiegazioni dai modelli di apprendimento automatico.
Che cos'è l'IA spiegabile?
Spiegabile intelligenza artificiale o XAI si riferisce alle tecniche e ai metodi utilizzati per consentire agli esseri umani di comprendere come i modelli di apprendimento automatico arrivano a un determinato output.
Molti popolari algoritmi di apprendimento automatico funziona come se fosse una “scatola nera”. Nell'apprendimento automatico, algoritmi della scatola nera fare riferimento ai modelli ML in cui è impossibile verificare come un determinato input porti a un determinato output. Anche lo sviluppatore dell'IA non sarà in grado di spiegare completamente come funziona l'algoritmo.
Ad esempio, utilizzano algoritmi di deep learning reti neurali per identificare i modelli da una tonnellata di dati. Anche se i ricercatori e gli sviluppatori di intelligenza artificiale capiscono come funzionano le reti neurali da un punto di vista tecnico, nemmeno loro possono spiegare completamente come una rete neurale abbia ottenuto un risultato particolare.
Alcune reti neurali gestiscono milioni di parametri che funzionano tutti all'unisono per restituire il risultato finale.
In situazioni in cui le decisioni contano, la mancanza di spiegabilità può diventare problematica.
Perché la spiegazione è importante
Spiegabilità fornisce informazioni su come i modelli prendono le decisioni. Le aziende che intendono adattare l'IA per prendere decisioni dovranno determinare se l'IA ha utilizzato il giusto input per arrivare alla decisione migliore.
I modelli inspiegabili sono un problema in diversi settori. Ad esempio, se un'azienda dovesse utilizzare un algoritmo per prendere decisioni di assunzione, sarebbe nell'interesse di tutti avere trasparenza su come l'algoritmo decide di rifiutare un candidato.
Un altro campo dove apprendimento profondo gli algoritmi vengono utilizzati più frequentemente è nel settore sanitario. Nei casi in cui gli algoritmi cercano di rilevare possibili segni di cancro, è importante che i medici comprendano come il modello sia arrivato a una particolare diagnosi. È necessario un certo livello di spiegabilità affinché gli esperti possano sfruttare appieno l'IA e non seguirla ciecamente
Panoramica degli algoritmi AI spiegabili
Gli algoritmi di intelligenza artificiale spiegabili rientrano in due grandi categorie: modelli auto-interpretabili e spiegazioni post-hoc.
Modelli auto-interpretabili
Modelli auto-interpretabili sono algoritmi che un essere umano può leggere e interpretare direttamente. In questo caso, il modello stesso è la spiegazione.
Alcuni dei modelli auto-interpretabili più comuni includono alberi decisionali e modelli di regressione.
Ad esempio, consideriamo un modello di regressione lineare che prevede i prezzi delle case. Una regressione lineare significa che con un certo valore x, saremo in grado di prevedere il nostro valore target y applicando una particolare funzione lineare f.
Supponiamo che il nostro modello utilizzi la dimensione del lotto come input principale per determinare il prezzo della casa. Usando la regressione lineare, siamo stati in grado di ottenere la funzione y = 5000 * x dove x è la quantità di piedi quadrati o la dimensione del lotto.
Questo modello è leggibile dall'uomo ed è completamente trasparente.
Spiegazioni post-hoc
Spiegazioni ad hoc sono un gruppo di algoritmi e tecniche che possono essere utilizzati per aggiungere spiegabilità ad altri algoritmi.
La maggior parte delle tecniche di spiegazione post-hoc non ha bisogno di capire come funziona l'algoritmo. L'utente deve solo specificare l'input e l'output risultante dell'algoritmo di destinazione.
Queste spiegazioni sono ulteriormente suddivise in due tipi: spiegazioni locali e spiegazioni globali.
Le spiegazioni locali mirano a spiegare un sottoinsieme di input. Ad esempio, dato un output particolare, una spiegazione locale sarà in grado di individuare quali parametri hanno contribuito a prendere quella decisione.
Le spiegazioni globali mirano a produrre spiegazioni post-hoc dell'intero algoritmo. Questo tipo di spiegazione è in genere più difficile da fare. Gli algoritmi sono complessi e possono esserci innumerevoli parametri significativi per il raggiungimento del risultato finale.
Esempi di algoritmi di spiegazione locale
Tra le molte tecniche utilizzate per ottenere XAI, gli algoritmi utilizzati per le spiegazioni locali sono ciò su cui si concentra la maggior parte dei ricercatori.
In questa sezione, daremo un'occhiata ad alcuni popolari algoritmi di spiegazione locale e al modo in cui ciascuno di essi funziona.
LIME
LIME (spiegatore indipendente dal modello interpretabile locale) è un algoritmo in grado di spiegare le previsioni di qualsiasi algoritmo di apprendimento automatico.
Come suggerisce il nome, LIME è indipendente dal modello. Ciò significa che LIME potrebbe funzionare per qualsiasi tipo di modello. Il modello è anche interpretabile localmente, il che significa che possiamo spiegare il modello utilizzando risultati locali piuttosto che spiegare l'intero modello.
Anche se il modello spiegato è una scatola nera, LIME crea un modello lineare locale attorno a punti vicini a una certa posizione.
LIMe fornisce un modello lineare che approssima il modello in prossimità di una previsione ma non necessariamente a livello globale.
Puoi saperne di più su questo algoritmo visitando questo repository open source.
FORMA
Spiegazioni dell'additivo Shapley (SHAP) è un metodo per spiegare le previsioni individuali. Per capire come funziona SHAP, dovremo spiegare quali sono i valori di Shapley.
Il valore di Shapley è un concetto nella teoria dei giochi che implica l'assegnazione di un "valore" a ciascun giocatore nel gioco. Questo è distribuito in modo tale che il valore assegnato a ciascun giocatore sia basato sul contributo del giocatore al gioco.
Come si applica dalla teoria dei giochi all'apprendimento automatico Modelli?
Supponiamo che ogni caratteristica nel nostro modello sia un "giocatore" e che il "gioco" sia la funzione che genera la previsione.
Il metodo SHAP crea un modello lineare ponderato che assegna valori Shapley a varie funzioni. Le caratteristiche con valori Shapley elevati hanno una maggiore influenza sull'esito del modello, mentre le caratteristiche con valori Shapley bassi hanno un impatto minore.
Conclusione
La spiegabilità dell'IA è importante non solo per garantire l'equità e la responsabilità dei sistemi di IA, ma anche per creare fiducia nella tecnologia dell'IA in generale.
C'è ancora molta ricerca da fare nell'area della spiegabilità dell'IA, ma ci sono alcuni approcci promettenti che possono aiutarci a capire i complessi sistemi di IA della scatola nera che sono già ampiamente utilizzati oggi.
Con ulteriori ricerche e sviluppo, possiamo sperare di costruire sistemi di intelligenza artificiale più trasparenti e più facili da capire. Nel frattempo, le aziende e gli esperti in campi come l'assistenza sanitaria dovrebbero essere consapevoli dei limiti della spiegabilità dell'IA.
Lascia un Commento