Sztuczna inteligencja może poprawiać wydajność w różnych sektorach, takich jak biznes i opieka zdrowotna. Jednak brak wyjaśnienia utrudnia nam poleganie na wykorzystaniu go do podejmowania decyzji.
Czy powinniśmy ufać ocenie algorytmu?
Ważne jest, aby decydenci w każdej branży rozumieli ograniczenia i potencjalne uprzedzenia modele uczenia maszynowego. Aby zapewnić, że te modele zachowują się zgodnie z przeznaczeniem, dane wyjściowe dowolnego systemu SI powinny być zrozumiałe dla człowieka.
W tym artykule omówimy znaczenie wyjaśnialności w sztucznej inteligencji. Przedstawimy krótki przegląd rodzajów metod wykorzystywanych do wyprowadzania wyjaśnień z modeli uczenia maszynowego.
Co to jest wytłumaczalna sztuczna inteligencja?
Wytłumaczalne sztuczna inteligencja lub XAI odnosi się do technik i metod używanych, aby umożliwić ludziom zrozumienie, w jaki sposób modele uczenia maszynowego osiągają określone wyniki.
Wiele popularnych algorytmy uczenia maszynowego działają jak „czarna skrzynka”. W uczeniu maszynowym algorytmy czarnej skrzynki odnoszą się do modeli ML, w których niemożliwe jest zweryfikowanie, w jaki sposób dane wejście prowadzi do określonego wyjścia. Nawet twórca sztucznej inteligencji nie będzie w stanie w pełni wyjaśnić, jak działa algorytm.
Na przykład algorytmy głębokiego uczenia używają sieci neuronowe identyfikować wzorce z mnóstwa danych. Mimo że badacze i programiści AI rozumieją, jak działają sieci neuronowe z technicznego punktu widzenia, nawet oni nie są w stanie w pełni wyjaśnić, w jaki sposób sieć neuronowa przyniosła konkretny wynik.
Niektóre sieci neuronowe obsługują miliony parametrów, z których wszystkie działają zgodnie, aby zwrócić wynik końcowy.
W sytuacjach, w których decyzje mają znaczenie, brak wyjaśnienia może stać się problematyczny.
Dlaczego wyjaśnienie ma znaczenie
Wyjaśnialność zapewnia wgląd w sposób podejmowania decyzji przez modele. Firmy, które planują dostosować sztuczną inteligencję do podejmowania decyzji, będą musiały ustalić, czy sztuczna inteligencja wykorzystała właściwe dane wejściowe, aby podjąć najlepszą decyzję.
Modele, które są niewytłumaczalne, stanowią problem w kilku branżach. Na przykład, jeśli firma miałaby używać algorytmu do podejmowania decyzji o zatrudnieniu, w najlepszym interesie wszystkich byłoby zachowanie przejrzystości w sposobie, w jaki algorytm decyduje o odrzuceniu kandydata.
Kolejne pole, w którym głęboka nauka algorytmy są coraz częściej stosowane w opiece zdrowotnej. W przypadkach, w których algorytmy próbują wykryć możliwe oznaki raka, ważne jest, aby lekarze zrozumieli, w jaki sposób model doszedł do konkretnej diagnozy. Aby eksperci mogli w pełni wykorzystać sztuczną inteligencję i nie podążać za nią ślepo, wymagany jest pewien poziom wyjaśnień
Przegląd wyjaśnialnych algorytmów AI
Wyjaśnialne algorytmy sztucznej inteligencji dzielą się na dwie szerokie kategorie: modele samointerpretujące się i wyjaśnienia post hoc.
Modele do samodzielnej interpretacji
Modele do samodzielnej interpretacji to algorytmy, które człowiek może bezpośrednio odczytać i zinterpretować. W tym przypadku sam model jest wyjaśnieniem.
Niektóre z najczęstszych modeli samointerpretacji obejmują drzewa decyzyjne i modele regresji.
Rozważmy na przykład model regresji liniowej, który przewiduje ceny domów. Regresja liniowa oznacza, że przy pewnej wartości x będziemy w stanie przewidzieć naszą wartość docelową y, stosując konkretną funkcję liniową f.
Załóżmy, że nasz model wykorzystuje wielkość lota jako główne dane wejściowe do określenia ceny domu. Korzystając z regresji liniowej, byliśmy w stanie wymyślić funkcję y = 5000 * x, gdzie x to ilość stóp kwadratowych lub wielkość partii.
Model ten jest czytelny dla człowieka i całkowicie przejrzysty.
Wyjaśnienia post hoc
Wyjaśnienia post hoc to grupa algorytmów i technik, które można wykorzystać w celu dodania wyjaśnień do innych algorytmów.
Większość technik wyjaśniania post-hoc nie musi rozumieć, jak działa algorytm. Użytkownik musi jedynie określić dane wejściowe i wynikowe dane wyjściowe algorytmu docelowego.
Wyjaśnienia te dzielą się dalej na dwa rodzaje: wyjaśnienia lokalne i wyjaśnienia globalne.
Wyjaśnienia lokalne mają na celu wyjaśnienie podzbioru danych wejściowych. Na przykład, biorąc pod uwagę konkretny wynik, lokalne wyjaśnienie będzie w stanie wskazać, które parametry przyczyniły się do podjęcia tej decyzji.
Wyjaśnienia globalne mają na celu stworzenie wyjaśnień post hoc całego algorytmu. Ten rodzaj wyjaśnienia jest zazwyczaj trudniejszy do wykonania. Algorytmy są złożone i może istnieć niezliczona ilość parametrów, które mają znaczenie dla osiągnięcia końcowego rezultatu.
Przykłady lokalnych algorytmów wyjaśniania
Wśród wielu technik stosowanych do osiągnięcia XAI większość badaczy skupia się na algorytmach stosowanych do lokalnych wyjaśnień.
W tej sekcji przyjrzymy się niektórym popularnym lokalnym algorytmom wyjaśniania i sposobowi działania każdego z nich.
LIME
LIME (lokalny interpretowalny model agnostyczny wyjaśniający) to algorytm, który może wyjaśnić przewidywania dowolnego algorytmu uczenia maszynowego.
Jak sama nazwa wskazuje, LIME jest niezależny od modelu. Oznacza to, że LIME może działać dla każdego typu modelu. Model można również interpretować lokalnie, co oznacza, że możemy wyjaśnić model przy użyciu lokalnych wyników, a nie wyjaśniać całego modelu.
Nawet jeśli wyjaśniany model jest czarną skrzynką, LIME tworzy lokalny model liniowy wokół punktów w pobliżu określonej pozycji.
LIMe zapewnia model liniowy, który przybliża model w pobliżu prognozy, ale niekoniecznie globalnie.
Możesz dowiedzieć się więcej o tym algorytmie, odwiedzając to repozytorium typu open source.
KSZTAŁT
Wyjaśnienia dotyczące dodatków Shapleya (SHAP) to metoda wyjaśniania indywidualnych przewidywań. Aby zrozumieć, jak działa SHAP, musimy wyjaśnić, czym są wartości Shapleya.
Wartość Shapleya to koncepcja w teorii gier, która polega na przypisaniu „wartości” każdemu graczowi w grze. Jest on dystrybuowany w taki sposób, że wartość przypisana każdemu graczowi jest oparta na jego wkładzie w grę.
Jak aplikujemy teoria gier do uczenia maszynowego modele?
Załóżmy, że każda funkcja w naszym modelu to „gracz”, a „gra” to funkcja, która generuje przewidywanie.
Metoda SHAP tworzy ważony model liniowy, który przypisuje wartości Shapley do różnych cech. Cechy o wysokich wartościach Shapleya mają większy wpływ na wynik modelu, podczas gdy cechy o niskich wartościach Shapleya mają mniejszy wpływ.
Wnioski
Wyjaśnialność AI jest ważna nie tylko dla zapewnienia rzetelności i rozliczalności systemów AI, ale także dla budowania ogólnego zaufania do technologii AI.
Nadal jest wiele do zrobienia w dziedzinie wyjaśniania sztucznej inteligencji, ale istnieją pewne obiecujące podejścia, które mogą pomóc nam zrozumieć złożone systemy sztucznej inteligencji, które są już obecnie szeroko stosowane.
Dzięki dalszym badaniom i rozwojowi możemy mieć nadzieję, że zbudujemy systemy sztucznej inteligencji, które będą bardziej przejrzyste i łatwiejsze do zrozumienia. W międzyczasie firmy i eksperci w dziedzinach takich jak opieka zdrowotna powinni zdawać sobie sprawę z ograniczeń wyjaśnialności sztucznej inteligencji.
Dodaj komentarz