AI ka fuqinë për të përmirësuar efikasitetin në sektorë të ndryshëm si biznesi dhe kujdesi shëndetësor. Megjithatë, mungesa e shpjegueshmërisë pengon mbështetjen tonë në përdorimin e tij për vendimmarrje.
A duhet t'i besojmë gjykimit të një algoritmi?
Është e rëndësishme që vendimmarrësit në çdo industri të kuptojnë kufizimet dhe paragjykimet e mundshme të modele të të nxënit të makinës. Për të siguruar që këto modele po sillen siç synohet, rezultati i çdo sistemi AI duhet të jetë i shpjegueshëm për një person.
Në këtë artikull, ne do të shqyrtojmë rëndësinë e shpjegueshmërisë në AI. Ne do të ofrojmë një përmbledhje të shkurtër të llojeve të metodave të përdorura për të nxjerrë shpjegime nga modelet e mësimit të makinerive.
Çfarë është AI e shpjegueshme?
E shpjegueshme inteligjencës artificiale ose XAI i referohet teknikave dhe metodave të përdorura për t'i lejuar njerëzit të kuptojnë se si modelet e mësimit të makinerive arrijnë në një rezultat të caktuar.
Shumë të njohura algoritme të mësimit të makinerisë punoni sikur të ishte një "kuti e zezë". Në mësimin e makinerive, algoritmet e kutisë së zezë referojuni modeleve ML ku është e pamundur të verifikohet se si një input i caktuar çon në një dalje të caktuar. Edhe zhvilluesi i AI nuk do të jetë në gjendje të shpjegojë plotësisht se si funksionon algoritmi.
Për shembull, përdorin algoritmet e mësimit të thellë rrjetet nervore për të identifikuar modelet nga një ton të dhënash. Edhe pse studiuesit dhe zhvilluesit e AI kuptojnë se si funksionojnë rrjetet nervore nga pikëpamja teknike, as ata nuk mund të shpjegojnë plotësisht se si një rrjet nervor doli me një rezultat të veçantë.
Disa rrjete nervore trajtojnë miliona parametra që të gjithë punojnë në unison për të kthyer rezultatin përfundimtar.
Në situatat kur vendimet kanë rëndësi, mungesa e shpjegueshmërisë mund të bëhet problematike.
Pse ka rëndësi shpjegueshmëria
Shpjegueshmëria ofron një pasqyrë se si modelet marrin vendime. Bizneset që planifikojnë të përshtatin AI për të marrë vendime do të duhet të përcaktojnë nëse AI ka përdorur informacionin e duhur për të arritur në vendimin më të mirë.
Modelet që janë të pashpjegueshme janë një problem në disa industri. Për shembull, nëse një kompani do të përdorte një algoritëm për të marrë vendime për punësimin, do të ishte në interesin më të mirë të të gjithëve që të kishte transparencë në mënyrën se si algoritmi vendos të refuzojë një aplikant.
Një fushë tjetër ku të mësuarit e thellë algoritmet janë duke u përdorur më shpesh në kujdesin shëndetësor. Në rastet kur algoritmet përpiqen të zbulojnë shenja të mundshme të kancerit, është e rëndësishme që mjekët të kuptojnë se si modeli arriti në një diagnozë të caktuar. Kërkohet një nivel shpjegueshmërie që ekspertët të përfitojnë plotësisht nga AI dhe të mos e ndjekin atë verbërisht
Pasqyrë e Algoritmeve të Shpjegueshme të AI
Algoritmet e shpjegueshme të AI ndahen në dy kategori të gjera: modele të vetë-interpretueshme dhe shpjegime post-hoc.
Modele të vetë-interpretueshme
Modele të vetë-interpretueshme janë algoritme që një njeri mund t'i lexojë dhe interpretojë drejtpërdrejt. Në këtë rast, modeli është vetë shpjegimi.
Disa nga modelet më të zakonshme të vetë-interpretueshme përfshijnë pemët e vendimit dhe modelet e regresionit.
Për shembull, le të shqyrtojmë një model regresioni linear që parashikon çmimet e banesave. Një regresion linear do të thotë që me një vlerë x, ne do të jemi në gjendje të parashikojmë vlerën tonë të synuar y duke aplikuar një funksion të veçantë linear f.
Supozoni se modeli ynë përdor madhësinë e lotit si inputin kryesor për të përcaktuar çmimin e shtëpisë. Duke përdorur regresionin linear, ne ishim në gjendje të dilnim me funksionin y = 5000 * x ku x është sasia e këmbëve katrore ose madhësia e lotit.
Ky model është i lexueshëm nga njeriu dhe është plotësisht transparent.
Shpjegime Post-Hoc
Shpjegime post-hoc janë një grup algoritmesh dhe teknikash që mund të përdoren për të shtuar shpjegueshmërinë në algoritme të tjera.
Shumica e teknikave të shpjegimit post-hoc nuk kanë nevojë të kuptojnë se si funksionon algoritmi. Përdoruesi duhet vetëm të specifikojë hyrjen dhe daljen rezultuese të algoritmit të synuar.
Këto shpjegime ndahen më tej në dy lloje: shpjegime lokale dhe shpjegime globale.
Shpjegimet lokale synojnë të shpjegojnë një nëngrup të dhënash. Për shembull, duke pasur parasysh një rezultat të caktuar, një shpjegim lokal do të jetë në gjendje të përcaktojë se cilët parametra kontribuan në marrjen e atij vendimi.
Shpjegimet globale synojnë të prodhojnë shpjegime post-hoc të të gjithë algoritmit. Ky lloj shpjegimi është zakonisht më i vështirë për t'u bërë. Algoritmet janë komplekse dhe mund të ketë parametra të panumërt që janë të rëndësishëm për arritjen e rezultatit përfundimtar.
Shembuj të Algoritmeve Lokale të Shpjegimit
Mes shumë teknikave të përdorura për të arritur XAI, algoritmet e përdorura për shpjegimet lokale janë ato në të cilat fokusohen shumica e studiuesve.
Në këtë seksion, ne do të hedhim një vështrim në disa algoritme të njohura lokale të shpjegimit dhe se si funksionon secili prej tyre.
LIME
LIME (Modeli Lokal i Interpretueshëm-Agnostik Shpjegues) është një algoritëm që mund të shpjegojë parashikimet e çdo algoritmi të mësimit të makinës.
Siç nënkupton edhe emri, LIME është model-agnostik. Kjo do të thotë se LIME mund të funksionojë për çdo lloj modeli. Modeli është gjithashtu i interpretueshëm në nivel lokal, që do të thotë se ne mund ta shpjegojmë modelin duke përdorur rezultatet lokale në vend që të shpjegojmë të gjithë modelin.
Edhe nëse modeli që shpjegohet është një kuti e zezë, LIME krijon një model linear lokal rreth pikave pranë një pozicioni të caktuar.
LIME ofron një model linear që përafron modelin në afërsi të një parashikimi, por jo domosdoshmërisht globalisht.
Mund të mësoni më shumë rreth këtij algoritmi duke vizituar këtë depo me burim të hapur.
SHAP
Shpjegime shtese Shapley (SHAP) është një metodë për të shpjeguar parashikimet individuale. Për të kuptuar se si funksionon SHAP, do të duhet të shpjegojmë se cilat janë vlerat e Shapley.
Vlera Shapley është një koncept në teorinë e lojës që përfshin caktimin e një "vlere" për çdo lojtar në lojë. Kjo shpërndahet në mënyrë që vlera e caktuar për secilin lojtar të bazohet në kontributin e lojtarit në lojë.
Si aplikojmë teoria e lojës në mësimin e makinerive modele?
Supozoni se çdo veçori në modelin tonë është një "lojtar" dhe se "loja" është funksioni që nxjerr parashikimin.
Metoda SHAP krijon një model linear të ponderuar që cakton vlerat e Shapley për karakteristika të ndryshme. Karakteristikat me vlera të larta Shapley kanë një ndikim më të madh në rezultatin e modelit ndërsa veçoritë me vlera të ulëta Shapley kanë më pak ndikim.
Përfundim
Shpjegueshmëria e AI është e rëndësishme jo vetëm për të siguruar drejtësinë dhe përgjegjshmërinë e sistemeve të AI, por edhe për ndërtimin e besimit në teknologjinë e AI në përgjithësi.
Ka ende shumë kërkime për t'u bërë në fushën e shpjegueshmërisë së AI, por ka disa qasje premtuese që mund të na ndihmojnë të kuptojmë sistemet komplekse të inteligjencës artificiale të kutisë së zezë që tashmë përdoren gjerësisht sot.
Me kërkime dhe zhvillime të mëtejshme, ne mund të shpresojmë të ndërtojmë sisteme të AI që janë më transparente dhe më të lehta për t'u kuptuar. Ndërkohë, bizneset dhe ekspertët në fusha të tilla si kujdesi shëndetësor duhet të jenë të vetëdijshëm për kufizimet e shpjegueshmërisë së AI.
Lini një Përgjigju