Az AI képes javítani a hatékonyságot különböző ágazatokban, például az üzleti életben és az egészségügyben. A megmagyarázhatóság hiánya azonban gátolja annak támaszkodását, hogy döntéshozatalban felhasználjuk.
Bíznunk kell egy algoritmus ítéletében?
Bármely iparág döntéshozói számára fontos, hogy megértsék a korlátokat és a lehetséges torzításokat gépi tanulási modellek. Annak érdekében, hogy ezek a modellek a rendeltetésszerűen viselkedjenek, bármely mesterséges intelligencia-rendszer kimenetének megmagyarázhatónak kell lennie az ember számára.
Ebben a cikkben áttekintjük a megmagyarázhatóság fontosságát az AI-ban. Rövid áttekintést adunk azokról a módszerekről, amelyeket a gépi tanulási modellekből származó magyarázatok levezetésére használnak.
Mi az a megmagyarázható AI?
Megmagyarázható mesterséges intelligencia vagy az XAI azokra a technikákra és módszerekre utal, amelyek lehetővé teszik az emberek számára, hogy megértsék, hogyan jutnak el a gépi tanulási modellek egy bizonyos kimenethez.
Sok népszerű gépi tanulási algoritmusok úgy működjön, mintha egy „fekete doboz” lenne. A gépi tanulásban, fekete doboz algoritmusok ML modellekre hivatkozunk, ahol lehetetlen ellenőrizni, hogy egy bizonyos bemenet hogyan vezet egy adott kimenethez. Még az AI fejlesztője sem fogja tudni teljes mértékben elmagyarázni az algoritmus működését.
Például mélytanulási algoritmusokat használnak neurális hálózatok hogy rengeteg adatból azonosítsa a mintákat. Annak ellenére, hogy a mesterséges intelligencia kutatói és fejlesztői értik a neurális hálózatok működését technikai szempontból, még ők sem tudják teljesen megmagyarázni, hogyan jutott egy neurális hálózat egy adott eredményre.
Egyes neurális hálózatok milliónyi paramétert kezelnek, amelyek mindegyike egységesen működik, hogy visszaadja a végeredményt.
Olyan helyzetekben, amikor a döntések számítanak, a megmagyarázhatóság hiánya problémássá válhat.
Miért számít a megmagyarázhatóság?
Magyarázatosság betekintést nyújt abba, hogy a modellek hogyan hoznak döntéseket. Azoknak a vállalkozásoknak, amelyek a mesterséges intelligencia adaptálását tervezik döntéseik meghozatalához, meg kell határozniuk, hogy a mesterséges intelligencia a megfelelő bemenetet használta-e a legjobb döntés meghozatalához.
A megmagyarázhatatlan modellek számos iparágban problémát jelentenek. Például, ha egy vállalat egy algoritmust használ a felvételi döntések meghozatalához, akkor mindenkinek az lenne az érdeke, hogy átlátható legyen, hogy az algoritmus hogyan dönt a jelentkező elutasításáról.
Egy másik mező, ahol mély tanulás algoritmusokat gyakrabban használnak az egészségügyben. Azokban az esetekben, amikor az algoritmusok megpróbálják kimutatni a rák lehetséges jeleit, fontos, hogy az orvosok megértsék, hogyan jutott el a modell egy adott diagnózishoz. Bizonyos szintű magyarázhatóság szükséges ahhoz, hogy a szakértők teljes mértékben kihasználhassák az AI előnyeit, és ne vakon kövessék azt
A megmagyarázható AI-algoritmusok áttekintése
A megmagyarázható AI-algoritmusok két nagy kategóriába sorolhatók: önértelmezhető modellek és post-hoc magyarázatok.
Önértelmezhető modellek
Önértelmezhető modellek olyan algoritmusok, amelyeket az ember közvetlenül tud olvasni és értelmezni. Ebben az esetben maga a modell a magyarázat.
A leggyakoribb önértelmezhető modellek közé tartoznak a döntési fák és a regressziós modellek.
Például vegyünk egy lineáris regressziós modellt, amely előrejelzi a lakásárakat. A lineáris regresszió azt jelenti, hogy bizonyos x érték mellett képesek leszünk megjósolni y célértékünket egy adott f lineáris függvény alkalmazásával.
Tegyük fel, hogy modellünk a telekméretet használja fő inputként a ház árának meghatározásához. Lineáris regresszió segítségével y = 5000 * x függvényt kaptunk, ahol x a négyzetláb vagy a telek mérete.
Ez a modell ember által olvasható és teljesen átlátszó.
Post-hoc magyarázatok
Post-hoc magyarázatok olyan algoritmusok és technikák csoportja, amelyek segítségével magyarázhatóságot adhatunk más algoritmusokhoz.
A legtöbb post-hoc magyarázati technikának nem kell megértenie az algoritmus működését. A felhasználónak csak a célalgoritmus bemenetét és eredményét kell megadnia.
Ezek a magyarázatok további két típusra oszlanak: lokális magyarázatokra és globális magyarázatokra.
A helyi magyarázatok célja a bemenetek egy részhalmazának magyarázata. Például egy adott kimenet esetén egy helyi magyarázat képes lesz pontosan meghatározni, hogy mely paraméterek járultak hozzá a döntés meghozatalához.
A globális magyarázatok célja a teljes algoritmus utólagos magyarázata. Ez a fajta magyarázat általában nehezebb. Az algoritmusok összetettek, és számtalan olyan paraméter lehet, amely jelentős a végeredmény elérésében.
Példák helyi magyarázó algoritmusokra
Az XAI eléréséhez használt számos technika közül a legtöbb kutató a helyi magyarázatokhoz használt algoritmusokra összpontosít.
Ebben a részben áttekintünk néhány népszerű helyi magyarázó algoritmust és azok működését.
LIME
LIME (Local Interpretable Model-Agnostic Explainer) egy olyan algoritmus, amely képes megmagyarázni bármely gépi tanulási algoritmus előrejelzését.
Ahogy a név is sugallja, a LIME modell-agnosztikus. Ez azt jelenti, hogy a LIME bármilyen típusú modellhez használható. A modell lokálisan is értelmezhető, ami azt jelenti, hogy a modellt lokális eredményekkel magyarázhatjuk, nem pedig a teljes modellt.
Még ha a magyarázott modell egy fekete doboz is, a LIME egy lokális lineáris modellt hoz létre egy bizonyos pozícióhoz közeli pontok körül.
A LIMe olyan lineáris modellt biztosít, amely közelíti a modellt egy előrejelzés közelében, de nem feltétlenül globálisan.
Erről az algoritmusról többet megtudhat, ha felkeresi ezt a nyílt forráskódú tárat.
SHAP
Shapley additív magyarázatok (SHAP) egy módszer az egyéni előrejelzések magyarázatára. A SHAP működésének megértéséhez el kell magyaráznunk, mik a Shapley-értékek.
A Shapley-érték egy játékelméleti fogalom, amely magában foglalja egy „érték” hozzárendelését a játék minden játékosához. Ez úgy van elosztva, hogy az egyes játékosokhoz rendelt érték a játékos játékhoz való hozzájárulásán alapul.
Hogyan alkalmazzuk játékelmélet a gépi tanulásig modellek?
Tegyük fel, hogy a modellünkben minden egyes funkció egy „játékos”, és hogy a „játék” az a függvény, amely az előrejelzést adja ki.
A SHAP metódus súlyozott lineáris modellt hoz létre, amely Shapley-értékeket rendel hozzá a különféle jellemzőkhöz. A magas Shapley-értékkel rendelkező jellemzők nagyobb hatást gyakorolnak a modell eredményére, míg az alacsony Shapley-értékkel rendelkező jellemzők kevésbé.
Következtetés
A mesterséges intelligencia megmagyarázhatósága nemcsak az AI-rendszerek tisztességességének és elszámoltathatóságának biztosítása érdekében fontos, hanem általában az AI-technológiába vetett bizalom kiépítése szempontjából is.
A mesterséges intelligencia magyarázhatósága terén még rengeteg kutatást kell végezni, de vannak olyan ígéretes megközelítések, amelyek segíthetnek megérteni a ma már széles körben használt összetett fekete doboz AI-rendszereket.
További kutatásokkal és fejlesztésekkel remélhetjük, hogy átláthatóbb és könnyebben érthető mesterséges intelligenciarendszereket építhetünk ki. Addig is a vállalkozásoknak és az olyan területek szakértőinek, mint az egészségügy, tisztában kell lenniük a mesterséges intelligencia megmagyarázhatóságának korlátaival.
Hagy egy Válaszol