AI nduweni daya kanggo ningkatake efisiensi ing macem-macem sektor kayata bisnis lan kesehatan. Nanging, lack of explainability ngalangi kita gumantung ing nggunakake kanggo nggawe keputusan.
Apa kita kudu percaya karo keputusan algoritma?
Penting kanggo pembuat keputusan ing industri apa wae kanggo ngerti watesan lan bias potensial model pembelajaran mesin. Kanggo mesthekake yen model kasebut tumindak kaya sing dikarepake, output saka sistem AI apa wae kudu bisa diterangake kanggo manungsa.
Ing artikel iki, kita bakal ngrembug babagan pentinge penjelasan ing AI. Kita bakal menehi ringkesan ringkes babagan jinis metode sing digunakake kanggo entuk panjelasan saka model pembelajaran mesin.
Apa AI sing Bisa Dijelasake?
Bisa dijlentrehake Kacerdhasan gawéyan utawa XAI nuduhake teknik lan metode sing digunakake kanggo ngidini manungsa ngerti kepiye model pembelajaran mesin entuk output tartamtu.
Akeh sing populer algoritma pembelajaran mesin kerja kaya "kothak ireng". Ing machine learning, algoritma kothak ireng deleng model ML ngendi iku mokal kanggo verifikasi carane input tartamtu ndadékaké kanggo output tartamtu. Malah pangembang AI ora bakal bisa nerangake kanthi lengkap babagan cara algoritma kasebut.
Contone, algoritma sinau jero digunakake jaringan saraf kanggo ngenali pola saka ton data. Sanajan peneliti lan pangembang AI ngerti cara kerjane jaringan saraf saka sudut pandang teknis, malah ora bisa nerangake kanthi lengkap kepiye jaringan saraf ngasilake asil tartamtu.
Sawetara jaringan saraf nangani mayuta-yuta paramèter sing kabeh dianggo bebarengan kanggo ngasilake asil pungkasan.
Ing kahanan nalika keputusan penting, kekurangan penjelasan bisa dadi masalah.
Napa Explainability Penting
Explainability menehi kawruh babagan carane model nggawe keputusan. Bisnis sing ngrancang adaptasi AI kanggo nggawe keputusan kudu nemtokake manawa AI wis nggunakake input sing tepat kanggo entuk keputusan sing paling apik.
Model sing ora bisa diterangake minangka masalah ing sawetara industri. Contone, yen perusahaan nggunakake algoritma kanggo nggawe keputusan perekrutan, kabeh wong bakal duwe transparansi babagan carane algoritma mutusake nolak pelamar.
Lapangan liyane ngendi sinau jero Algoritma sing luwih kerep digunakake yaiku ing perawatan kesehatan. Ing kasus nalika algoritma nyoba ndeteksi tandha-tandha kanker, penting kanggo para dokter ngerti kepiye model kasebut tekan diagnosis tartamtu. Sawetara tingkat panjelasan dibutuhake kanggo para ahli supaya entuk manfaat saka AI lan ora ngetutake kanthi wuta
Ringkesan Algoritma AI sing Bisa Dijelasake
Algoritma AI sing bisa diterangake dadi rong kategori: model sing bisa ditafsirake dhewe lan panjelasan post-hoc.
Model sing bisa diinterpretasikake dhewe
Model sing bisa diinterpretasikake dhewe minangka algoritma sing bisa diwaca lan diinterpretasikake manungsa. Ing kasus iki, model dhewe minangka panjelasan.
Sawetara model self-interpretable sing paling umum kalebu wit keputusan lan model regresi.
Contone, ayo nimbang model regresi linier sing prédhiksi rega omah. Regresi linier tegese kanthi sawetara nilai x, kita bakal bisa prédhiksi nilai target y kanthi nggunakake fungsi linear tartamtu f.
Upaminipun model kita nggunakake ukuran lot minangka input utama kanggo nemtokake rega omah. Nggunakake kemunduran linear, kita bisa teka munggah karo fungsi y = 5000 * x ngendi x iku jumlah kaki persegi utawa ukuran lot.
Model iki bisa diwaca manungsa lan transparan.
Panjelasan Post-Hoc
Panjelasan post-hoc minangka klompok algoritma lan teknik sing bisa digunakake kanggo nambah penjelasan kanggo algoritma liyane.
Umume teknik panjelasan post-hoc ora perlu ngerti cara algoritma kasebut. Pangguna mung kudu nemtokake input lan asil output algoritma target.
Panjelasan kasebut luwih dipérang dadi rong jinis: panjelasan lokal lan panjelasan global.
Penjelasan lokal nduweni tujuan kanggo nerangake subset saka input. Contone, diwenehi output tartamtu, panjelasan lokal bakal bisa nemtokake paramèter sing nyumbang kanggo nggawe keputusan kasebut.
Penjelasan global tujuane ngasilake panjelasan post-hoc babagan kabeh algoritma. Panjelasan jinis iki biasane luwih angel ditindakake. Algoritma rumit lan bisa uga ana parameter sing ora kaetung sing penting kanggo nggayuh asil pungkasan.
Tuladha Algoritma Penjelasan Lokal
Ing antarane akeh teknik sing digunakake kanggo entuk XAI, algoritma sing digunakake kanggo panjelasan lokal yaiku sing paling akeh peneliti fokus.
Ing bagean iki, kita bakal nliti sawetara algoritma panjelasan lokal sing populer lan cara kerjane.
LOS
LIME (Local Interpretable Model-Agnostic Explainer) minangka algoritma sing bisa nerangake prediksi saka algoritma machine learning.
Minangka jeneng kasebut, LIME minangka model-agnostik. Iki tegese LIME bisa digunakake kanggo kabeh jinis model. Model kasebut uga bisa diinterpretasikake sacara lokal, tegese kita bisa nerangake model kasebut nggunakake asil lokal tinimbang nerangake kabeh model.
Sanajan model sing diterangake minangka kothak ireng, LIME nggawe model linear lokal ing sekitar titik sing cedhak karo posisi tartamtu.
LIme nyedhiyakake model linear sing kira-kira model ing sacedhake prediksi nanging ora kudu sacara global.
Sampeyan bisa sinau luwih lengkap babagan algoritma iki kanthi ngunjungi gudang sumber terbuka iki.
SHAP
Penjelasan Aditif Shapley (SHAP) minangka cara kanggo nerangake prediksi individu. Kanggo ngerti cara kerja SHAP, kita kudu nerangake apa nilai Shapley.
Nilai Shapley punika konsep ing teori game sing melu menehi "nilai" kanggo saben pemain ing game. Iki mbagekke supaya Nilai diutus kanggo saben pamuter adhedhasar kontribusi pamuter kanggo game.
Kepiye cara aplikasi teori game kanggo machine learning model?
Upaminipun saben fitur ing model kita minangka "pamuter" lan "game" minangka fungsi sing ngasilake prediksi.
Cara SHAP nggawe model linear bobot sing menehi nilai Shapley kanggo macem-macem fitur. Fitur karo nilai Shapley dhuwur duwe pengaruh luwih ing kasil saka model nalika fitur karo Nilai Shapley kurang duwe impact kurang.
kesimpulan
Penjelasan AI penting ora mung kanggo njamin keadilan lan akuntabilitas sistem AI, nanging uga kanggo mbangun kapercayan ing teknologi AI ing umum.
Isih akeh riset sing kudu ditindakake ing babagan penjelasan AI, nanging ana sawetara pendekatan sing bisa mbantu kita ngerti sistem AI kothak ireng sing kompleks sing wis digunakake saiki.
Kanthi riset lan pangembangan luwih lanjut, kita bisa ngarep-arep mbangun sistem AI sing luwih transparan lan luwih gampang dingerteni. Ing sawetoro wektu, bisnis lan ahli ing lapangan kayata kesehatan kudu ngerti watesan saka AI explainability.
Ninggalake a Reply