AI는 비즈니스, 헬스케어 등 다양한 분야에서 효율성을 높이는 힘을 갖고 있다. 그러나 설명 가능성의 부족은 의사 결정을 위해 그것을 사용하는 것에 대한 우리의 의존을 방해합니다.
알고리즘의 판단을 믿어야 할까요?
모든 산업의 의사 결정자들이 산업의 한계와 잠재적 편견을 이해하는 것이 중요합니다. 기계 학습 모델. 이러한 모델이 의도한 대로 작동하도록 하려면 모든 AI 시스템의 출력을 사람에게 설명할 수 있어야 합니다.
이 기사에서는 AI에서 설명 가능성의 중요성에 대해 살펴보겠습니다. 기계 학습 모델에서 설명을 도출하는 데 사용되는 방법 유형에 대한 간략한 개요를 제공합니다.
설명 가능한 AI란 무엇입니까?
설명 가능 인공 지능 또는 XAI는 기계 학습 모델이 특정 출력에 도달하는 방법을 인간이 이해할 수 있도록 하는 데 사용되는 기술 및 방법을 나타냅니다.
많은 인기 기계 학습 알고리즘 마치 "블랙박스"처럼 작동합니다. 머신러닝에서는 블랙박스 알고리즘 특정 입력이 특정 출력으로 이어지는 방식을 확인할 수 없는 ML 모델을 참조하십시오. AI 개발자조차도 알고리즘이 어떻게 작동하는지 완전히 설명할 수 없습니다.
예를 들어 딥 러닝 알고리즘은 다음을 사용합니다. 신경망 수많은 데이터에서 패턴을 식별합니다. AI 연구원과 개발자는 신경망이 기술적인 관점에서 어떻게 작동하는지 이해하지만 신경망이 어떻게 특정 결과를 얻었는지 완전히 설명할 수 없습니다.
일부 신경망은 최종 결과를 반환하기 위해 모두 작동하는 수백만 개의 매개변수를 처리합니다.
결정이 중요한 상황에서는 설명 가능성의 부족이 문제가 될 수 있습니다.
설명 가능성이 중요한 이유
설명 가능성 모델이 결정을 내리는 방법에 대한 통찰력을 제공합니다. 결정을 내리기 위해 AI를 적용하려는 기업은 AI가 최상의 결정에 도달하기 위해 올바른 입력을 사용했는지 여부를 결정해야 합니다.
설명할 수 없는 모델은 여러 산업에서 문제입니다. 예를 들어 회사에서 채용 결정을 내리기 위해 알고리즘을 사용하는 경우 알고리즘이 지원자를 거부하기로 결정하는 방법을 투명하게 공개하는 것이 모든 사람에게 가장 큰 이익이 될 것입니다.
또 다른 분야 깊은 학습 알고리즘은 의료 분야에서 더 자주 사용됩니다. 알고리즘이 암의 가능한 징후를 감지하려고 시도하는 경우 의사가 모델이 특정 진단에 도달한 방법을 이해하는 것이 중요합니다. 전문가가 AI를 맹목적으로 따르지 않고 최대한 활용하려면 어느 정도의 설명 가능성이 필요합니다.
설명 가능한 AI 알고리즘 개요
설명 가능한 AI 알고리즘은 자체 해석 가능한 모델과 사후 설명의 두 가지 범주로 나뉩니다.
자체 해석 가능한 모델
자체 해석 가능한 모델 사람이 직접 읽고 해석할 수 있는 알고리즘입니다. 이 경우 모델 자체가 설명입니다.
가장 일반적인 자가 해석 가능한 모델에는 의사 결정 트리와 회귀 모델이 포함됩니다.
예를 들어 주택 가격을 예측하는 선형 회귀 모델을 생각해 보겠습니다. 선형 회귀는 어떤 값 x로 특정 선형 함수 f를 적용하여 목표 값 y를 예측할 수 있음을 의미합니다.
우리 모델이 주택 가격을 결정하기 위한 주요 입력으로 부지 크기를 사용한다고 가정합니다. 선형 회귀를 사용하여 y = 5000 * x 함수를 만들 수 있었습니다. 여기서 x는 제곱피트 또는 로트 크기입니다.
이 모델은 사람이 읽을 수 있으며 완전히 투명합니다.
사후 설명
사후 설명 다른 알고리즘에 설명 가능성을 추가하는 데 사용할 수 있는 알고리즘 및 기술 그룹입니다.
대부분의 사후 설명 기술은 알고리즘이 작동하는 방식을 이해할 필요가 없습니다. 사용자는 대상 알고리즘의 입력 및 결과 출력만 지정하면 됩니다.
이러한 설명은 지역 설명과 글로벌 설명의 두 종류로 더 나뉩니다.
지역 설명은 입력의 하위 집합을 설명하는 것을 목표로 합니다. 예를 들어, 특정 출력이 주어지면 로컬 설명은 해당 결정을 내리는 데 기여한 매개변수를 정확히 찾아낼 수 있습니다.
전역 설명은 전체 알고리즘에 대한 사후 설명을 생성하는 것을 목표로 합니다. 이러한 유형의 설명은 일반적으로 수행하기가 더 어렵습니다. 알고리즘은 복잡하며 최종 결과를 달성하는 데 중요한 매개변수가 셀 수 없이 많을 수 있습니다.
로컬 설명 알고리즘의 예
XAI를 구현하는 데 사용되는 많은 기술 중 로컬 설명에 사용되는 알고리즘은 대부분의 연구자가 집중하는 것입니다.
이 섹션에서는 몇 가지 인기 있는 로컬 설명 알고리즘과 각각의 작동 방식을 살펴보겠습니다.
라임
LIME(Local Interpretable Model-Agnostic Explainer) 모든 머신 러닝 알고리즘의 예측을 설명할 수 있는 알고리즘입니다.
이름에서 알 수 있듯이 LIME은 모델에 구애받지 않습니다. 이는 LIME이 모든 유형의 모델에서 작동할 수 있음을 의미합니다. 모델은 또한 로컬로 해석 가능합니다. 즉, 전체 모델을 설명하는 대신 로컬 결과를 사용하여 모델을 설명할 수 있습니다.
설명 중인 모델이 블랙박스일지라도 LIME은 특정 위치 근처의 점을 중심으로 로컬 선형 모델을 생성합니다.
LIMe는 예측 근처에서 모델을 근사화하지만 반드시 전역적으로는 아닐 수 있는 선형 모델을 제공합니다.
이 오픈 소스 저장소를 방문하여 이 알고리즘에 대해 자세히 알아볼 수 있습니다.
P
Shapley 첨가제 설명(SHAP) 개별 예측을 설명하는 방법입니다. SHAP의 작동 방식을 이해하려면 Shapley 값이 무엇인지 설명해야 합니다.
Shapley 값은 게임의 각 플레이어에게 "값"을 할당하는 것과 관련된 게임 이론의 개념입니다. 이것은 각 플레이어에게 할당된 값이 게임에 대한 플레이어의 기여도를 기반으로 하도록 분배됩니다.
신청 방법 게임 이론을 기계 학습으로 모델?
우리 모델의 각 기능이 "플레이어"이고 "게임"이 예측을 출력하는 기능이라고 가정합니다.
SHAP 방법은 다양한 기능에 Shapley 값을 할당하는 가중 선형 모델을 생성합니다. Shapley 값이 높은 기능은 모델의 결과에 더 큰 영향을 미치는 반면 Shapley 값이 낮은 기능은 영향이 적습니다.
결론
AI 설명 가능성은 AI 시스템의 공정성과 책임성을 보장할 뿐만 아니라 AI 기술 전반에 대한 신뢰를 구축하는 데도 중요합니다.
AI 설명 가능성 영역에서 수행해야 할 연구가 아직 많이 있지만 오늘날 이미 널리 사용되는 복잡한 블랙박스 AI 시스템을 이해하는 데 도움이 될 수 있는 몇 가지 유망한 접근 방식이 있습니다.
더 많은 연구와 개발을 통해 더 투명하고 이해하기 쉬운 AI 시스템을 구축할 수 있기를 바랍니다. 한편, 헬스케어 등 분야의 기업과 전문가들은 AI 설명가능성의 한계를 인지해야 한다.
댓글을 남겨주세요.