Umělá inteligence má moc zlepšit efektivitu v různých odvětvích, jako je obchod a zdravotnictví. Nedostatek vysvětlitelnosti však brání tomu, abychom se spoléhali na to, že je použijeme pro rozhodování.
Měli bychom věřit úsudku algoritmu?
Pro osoby s rozhodovací pravomocí v jakémkoli odvětví je důležité, aby pochopili omezení a potenciální předsudky modely strojového učení. Aby se zajistilo, že se tyto modely chovají tak, jak bylo zamýšleno, výstup jakéhokoli systému umělé inteligence by měl být vysvětlitelný člověku.
V tomto článku se podíváme na důležitost vysvětlitelnosti v AI. Poskytneme stručný přehled typů metod používaných k odvození vysvětlení z modelů strojového učení.
Co je vysvětlitelná AI?
Vysvětlitelný umělá inteligence nebo XAI odkazuje na techniky a metody používané k tomu, aby lidem umožnily pochopit, jak modely strojového učení dosáhnou určitého výstupu.
Mnoho populárních algoritmy strojového učení pracovat, jako by to byla „černá skříňka“. Ve strojovém učení, algoritmy černé skříňky odkazují na modely ML, kde není možné ověřit, jak určitý vstup vede ke konkrétnímu výstupu. Ani vývojář AI nebude schopen plně vysvětlit, jak algoritmus funguje.
Používají se například algoritmy hlubokého učení neuronové sítě identifikovat vzory z tuny dat. I když výzkumníci a vývojáři AI chápou, jak neuronové sítě fungují z technického hlediska, ani oni nedokážou plně vysvětlit, jak neuronová síť došla ke konkrétnímu výsledku.
Některé neuronové sítě zpracovávají miliony parametrů, které všechny spolupracují, aby vrátily konečný výsledek.
V situacích, kdy na rozhodnutí záleží, může být nedostatek vysvětlitelnosti problematický.
Proč na vysvětlitelnosti záleží
Vysvětlitelnost poskytuje přehled o tom, jak se modely rozhodují. Podniky, které plánují adaptaci AI k rozhodování, budou muset určit, zda AI použila správný vstup, aby dospěla k nejlepšímu rozhodnutí.
Modely, které jsou nevysvětlitelné, jsou problémem v několika odvětvích. Pokud by například společnost používala algoritmus k přijímání rozhodnutí o náboru, bylo by v nejlepším zájmu každého, aby byl transparentní, jak se algoritmus rozhodne odmítnout uchazeče.
Další pole, kde hluboké učení Algoritmy se stále častěji používají ve zdravotnictví. V případech, kdy se algoritmy snaží detekovat možné známky rakoviny, je důležité, aby lékaři pochopili, jak model dospěl ke konkrétní diagnóze. Aby mohli odborníci plně využít výhod AI a ne ji slepě následovat, je vyžadována určitá úroveň vysvětlitelnosti
Přehled vysvětlitelných algoritmů umělé inteligence
Vysvětlitelné algoritmy umělé inteligence spadají do dvou širokých kategorií: samostatně interpretovatelné modely a post-hoc vysvětlení.
Samointerpretovatelné modely
Samointerpretovatelné modely jsou algoritmy, které člověk může přímo číst a interpretovat. V tomto případě je vysvětlením samotný model.
Některé z nejběžnějších autointerpretovatelných modelů zahrnují rozhodovací stromy a regresní modely.
Uvažujme například lineární regresní model, který předpovídá ceny nemovitostí. Lineární regrese znamená, že s nějakou hodnotou x budeme schopni předpovědět naši cílovou hodnotu y použitím konkrétní lineární funkce f.
Předpokládejme, že náš model používá velikost pozemku jako hlavní vstup pro určení ceny domu. Pomocí lineární regrese jsme byli schopni přijít s funkcí y = 5000 * x, kde x je množství čtverečních stop nebo velikost pozemku.
Tento model je čitelný pro člověka a je zcela průhledný.
Post-Hoc vysvětlení
Post-hoc vysvětlení jsou skupinou algoritmů a technik, které lze použít k přidání vysvětlitelnosti do jiných algoritmů.
Většina post-hoc vysvětlovacích technik nemusí rozumět tomu, jak algoritmus funguje. Uživatel potřebuje pouze specifikovat vstup a výsledný výstup cílového algoritmu.
Tato vysvětlení se dále dělí na dva druhy: lokální vysvětlení a globální vysvětlení.
Místní vysvětlení mají za cíl vysvětlit podmnožinu vstupů. Například s ohledem na konkrétní výstup bude místní vysvětlení schopné určit, které parametry přispěly k tomuto rozhodnutí.
Cílem globálních vysvětlení je vytvořit post-hoc vysvětlení celého algoritmu. Tento typ vysvětlení je obvykle obtížnější. Algoritmy jsou složité a může existovat nespočet parametrů, které jsou důležité pro dosažení konečného výsledku.
Příklady lokálních vysvětlovacích algoritmů
Mezi mnoha technikami používanými k dosažení XAI se většina výzkumníků zaměřuje na algoritmy používané pro místní vysvětlení.
V této části se podíváme na některé oblíbené místní vysvětlovací algoritmy a na to, jak každý z nich funguje.
LIME
LIME (Local Interpretable Model-Agnostic Explainer) je algoritmus, který dokáže vysvětlit předpovědi jakéhokoli algoritmu strojového učení.
Jak název napovídá, LIME je model-agnostik. To znamená, že LIME může fungovat pro jakýkoli typ modelu. Model je také lokálně interpretovatelný, což znamená, že můžeme model vysvětlit pomocí lokálních výsledků spíše než vysvětlovat celý model.
I když je vysvětlovaný model černá skříňka, LIME vytvoří lokální lineární model kolem bodů poblíž určité pozice.
LIMe poskytuje lineární model, který aproximuje model v blízkosti predikce, ale ne nutně globálně.
Více o tomto algoritmu se můžete dozvědět v tomto open-source úložišti.
SHAP
Shapley Additive Explanations (SHAP) je metoda k vysvětlení jednotlivých předpovědí. Abychom pochopili, jak SHAP funguje, budeme muset vysvětlit, co jsou hodnoty Shapley.
Shapleyho hodnota je pojem v teorii her, který zahrnuje přiřazení „hodnoty“ každému hráči ve hře. To je rozděleno tak, že hodnota přiřazená každému hráči je založena na jeho příspěvku do hry.
Jak podáme žádost? teorie her až po strojové učení modely?
Předpokládejme, že každá funkce v našem modelu je „hráč“ a že „hra“ je funkcí, která předpovídá předpověď.
Metoda SHAP vytváří vážený lineární model, který různým prvkům přiřazuje Shapleyho hodnoty. Prvky s vysokými hodnotami Shapley mají větší vliv na výsledek modelu, zatímco prvky s nízkými hodnotami Shapley mají menší dopad.
Proč investovat do čističky vzduchu?
Vysvětlitelnost AI je důležitá nejen pro zajištění spravedlnosti a odpovědnosti systémů AI, ale také pro budování důvěry v technologii AI obecně.
V oblasti vysvětlitelnosti umělé inteligence je stále potřeba provést spoustu výzkumu, ale existují některé slibné přístupy, které nám mohou pomoci porozumět komplexním systémům umělé inteligence černé skříňky, které jsou dnes již široce používány.
S dalším výzkumem a vývojem můžeme doufat, že vybudujeme systémy umělé inteligence, které budou transparentnější a srozumitelnější. Mezitím by si podniky a odborníci v oblastech, jako je zdravotnictví, měli být vědomi omezení vysvětlitelnosti AI.
Napsat komentář