Yapay zeka, iş ve sağlık gibi çeşitli sektörlerde verimliliği artırma gücüne sahiptir. Bununla birlikte, açıklanabilirliğin olmaması, onu karar vermede kullanmaya olan güvenimizi engellemektedir.
Bir algoritmanın yargısına güvenmeli miyiz?
Herhangi bir endüstrideki karar vericilerin, üretimin sınırlamalarını ve potansiyel önyargılarını anlaması önemlidir. makine öğrenimi modelleri. Bu modellerin amaçlandığı gibi davrandığından emin olmak için herhangi bir AI sisteminin çıktısı bir insana açıklanabilir olmalıdır.
Bu yazıda, AI'da açıklanabilirliğin önemini gözden geçireceğiz. Makine öğrenimi modellerinden açıklamalar türetmek için kullanılan yöntem türlerine kısa bir genel bakış sunacağız.
Açıklanabilir AI nedir?
açıklanabilir yapay zeka veya XAI, insanların makine öğrenimi modellerinin belirli bir çıktıya nasıl ulaştığını anlamalarını sağlamak için kullanılan teknikleri ve yöntemleri ifade eder.
Çok popüler makine öğrenme algoritmaları bir "kara kutu" gibi çalışır. Makine öğreniminde, kara kutu algoritmaları belirli bir girdinin belirli bir çıktıya nasıl yol açtığını doğrulamanın imkansız olduğu ML modellerine bakın. AI geliştiricisi bile algoritmanın nasıl çalıştığını tam olarak açıklayamayacak.
Örneğin, derin öğrenme algoritmaları nöral ağlar bir ton veriden kalıpları tanımlamak için. Yapay zeka araştırmacıları ve geliştiricileri, sinir ağlarının teknik bir bakış açısıyla nasıl çalıştığını anlasalar da, bir sinir ağının belirli bir sonuca nasıl ulaştığını tam olarak açıklayamazlar.
Bazı sinir ağları, nihai sonucu döndürmek için hepsi birlikte çalışan milyonlarca parametreyi işler.
Kararların önemli olduğu durumlarda, açıklanabilirlik eksikliği sorunlu hale gelebilir.
Açıklanabilirlik Neden Önemlidir?
Açıklanabilirlik modellerin nasıl karar verdiğine dair fikir verir. AI'yı karar vermek için uyarlamayı planlayan işletmeler, AI'nın en iyi karara varmak için doğru girdiyi kullanıp kullanmadığını belirlemek zorunda kalacak.
Açıklanamayan modeller birçok endüstride bir sorundur. Örneğin, bir şirket işe alım kararları vermek için bir algoritma kullanacaksa, algoritmanın bir başvuranı reddetmeye nasıl karar verdiği konusunda şeffaflığa sahip olmak herkesin çıkarına olacaktır.
Başka bir alan nerede derin öğrenme algoritmalar sağlık alanında daha sık kullanılmaktadır. Algoritmaların olası kanser belirtilerini tespit etmeye çalıştığı durumlarda, doktorların modelin belirli bir teşhise nasıl ulaştığını anlaması önemlidir. Uzmanların yapay zekadan tam olarak yararlanabilmesi ve körü körüne takip etmemesi için bir miktar açıklanabilirlik gereklidir.
Açıklanabilir AI Algoritmalarına Genel Bakış
Açıklanabilir AI algoritmaları iki geniş kategoriye ayrılır: kendi kendine yorumlanabilir modeller ve post-hoc açıklamalar.
Kendinden yorumlanabilir modeller
Kendinden yorumlanabilir modeller bir insanın doğrudan okuyabildiği ve yorumlayabildiği algoritmalardır. Bu durumda, modelin kendisi açıklamadır.
En yaygın kendi kendini yorumlayabilen modellerden bazıları, karar ağaçları ve regresyon modellerini içerir.
Örneğin, ev fiyatlarını tahmin eden doğrusal bir regresyon modelini ele alalım. Doğrusal bir regresyon, bazı x değerleriyle, belirli bir doğrusal işlev f uygulayarak hedef değerimizi y tahmin edebileceğimiz anlamına gelir.
Modelimizin konut fiyatını belirlemek için ana girdi olarak lot büyüklüğünü kullandığını varsayalım. Doğrusal regresyon kullanarak, y = 5000 * x fonksiyonunu bulabildik, burada x, fit kare miktarı veya parti büyüklüğüdür.
Bu model insan tarafından okunabilir ve tamamen şeffaftır.
Post-Hoc Açıklamalar
Post hoc açıklamalar diğer algoritmalara açıklanabilirlik eklemek için kullanılabilecek bir grup algoritma ve tekniktir.
Çoğu post-hoc açıklama tekniğinin algoritmanın nasıl çalıştığını anlaması gerekmez. Kullanıcının yalnızca hedef algoritmanın girişini ve sonuç çıkışını belirtmesi gerekir.
Bu açıklamalar ayrıca iki türe ayrılır: yerel açıklamalar ve küresel açıklamalar.
Yerel açıklamalar, bir girdi alt kümesini açıklamayı amaçlar. Örneğin, belirli bir çıktı verildiğinde, yerel bir açıklama bu kararın alınmasına hangi parametrelerin katkıda bulunduğunu saptayabilir.
Global açıklamalar, tüm algoritmanın post-hoc açıklamalarını üretmeyi amaçlar. Bu tür bir açıklama yapmak genellikle daha zordur. Algoritmalar karmaşıktır ve nihai sonuca ulaşmada önemli olan sayısız parametre olabilir.
Yerel Açıklama Algoritmaları Örnekleri
XAI'yi elde etmek için kullanılan birçok teknik arasında, yerel açıklamalar için kullanılan algoritmalar çoğu araştırmacının odaklandığı şeydir.
Bu bölümde, bazı popüler yerel açıklama algoritmalarına ve her birinin nasıl çalıştığına bir göz atacağız.
MİSKET LİMONU
LIME (Yerel Yorumlanabilir Model-Agnostik Açıklayıcı) herhangi bir makine öğrenmesi algoritmasının tahminlerini açıklayabilen bir algoritmadır.
Adından da anlaşılacağı gibi, LIME modelden bağımsızdır. Bu, LIME'ın her tür model için çalışabileceği anlamına gelir. Model ayrıca yerel olarak yorumlanabilir, yani modeli tüm modeli açıklamak yerine yerel sonuçları kullanarak açıklayabiliriz.
Açıklanan model bir kara kutu olsa bile, LIME belirli bir konumun yakınındaki noktaların etrafında yerel bir doğrusal model oluşturur.
LIMe, modele bir tahminin yakınında yaklaşan, ancak küresel olarak zorunlu olmayan doğrusal bir model sağlar.
Bu açık kaynak deposunu ziyaret ederek bu algoritma hakkında daha fazla bilgi edinebilirsiniz.
ŞEKİL
Shapley Katkı Açıklamaları (SHAP) bireysel tahminleri açıklamak için bir yöntemdir. SHAP'ın nasıl çalıştığını anlamak için Shapley değerlerinin ne olduğunu açıklamamız gerekecek.
Shapley değeri, oyun teorisinde oyundaki her oyuncuya bir "değer" atamayı içeren bir kavramdır. Bu, her oyuncuya atanan değer, oyuncunun oyuna katkısına dayalı olacak şekilde dağıtılır.
Nasıl başvururuz oyun teorisinden makine öğrenimine modeller?
Modelimizdeki her bir özelliğin bir "oyuncu" olduğunu ve "oyun"un tahminin çıktısını veren fonksiyon olduğunu varsayalım.
SHAP yöntemi, çeşitli özelliklere Shapley değerleri atayan ağırlıklı bir doğrusal model oluşturur. Yüksek Shapley değerlerine sahip özelliklerin modelin sonucu üzerinde daha büyük bir etkisi vardır, düşük Shapley değerlerine sahip özelliklerin ise daha az etkisi vardır.
Sonuç
Yapay zekanın açıklanabilirliği, yalnızca yapay zeka sistemlerinin adilliğini ve hesap verebilirliğini sağlamak için değil, aynı zamanda genel olarak yapay zeka teknolojisine güven oluşturmak için de önemlidir.
Yapay zekanın açıklanabilirliği alanında hala yapılacak çok sayıda araştırma var, ancak günümüzde zaten yaygın olarak kullanılan karmaşık kara kutu yapay zeka sistemlerini anlamamıza yardımcı olabilecek bazı umut verici yaklaşımlar var.
Daha fazla araştırma ve geliştirme ile daha şeffaf ve anlaşılması daha kolay yapay zeka sistemleri oluşturmayı umabiliriz. Bu arada, sağlık gibi alanlardaki işletmeler ve uzmanlar, AI açıklanabilirliğinin sınırlamalarının farkında olmalıdır.
Yorum bırak