Yapay zekayı sorumlu bir şekilde kullandığımızdan nasıl emin olabiliriz?
Makine öğrenimindeki gelişmeler, modellerin hızla ölçeklenebileceğini ve toplumun büyük bir bölümünü etkileyebileceğini gösteriyor.
Algoritmalar, herkesin telefonundaki haber akışını kontrol eder. Hükümetler ve şirketler, verilere dayalı kararlar almak için yapay zekayı kullanmaya başlıyor.
AI, dünyanın nasıl işlediğine daha fazla yerleştikçe, AI'nın adil davrandığından nasıl emin olabiliriz?
Bu makalede, AI kullanmanın etik zorluklarını inceleyeceğiz ve AI'nın sorumlu kullanımını sağlamak için neler yapabileceğimizi göreceğiz.
Etik AI nedir?
Etik AI, belirli bir dizi etik yönergeye uyan yapay zekayı ifade eder.
Başka bir deyişle, bireylerin ve kuruluşların AI ile sorumlu bir şekilde çalışmasının bir yoludur.
Son yıllarda, kötüye kullanım ve ihlal kanıtlarının ortaya çıkmasından sonra şirketler veri gizliliği yasalarına bağlı kalmaya başladılar. Benzer şekilde, AI'nın toplumu olumsuz etkilemediğinden emin olmak için etik AI için kılavuzlar önerilir.
Örneğin, bazı AI türleri önyargılı bir şekilde çalışır veya zaten var olan önyargıları sürdürür. İşe alım görevlilerinin binlerce özgeçmişi sıralamalarına yardımcı olan bir algoritma düşünelim. Algoritma, ağırlıklı olarak erkek veya beyaz çalışanların bulunduğu bir veri kümesinde eğitilirse, algoritmanın bu kategorilere giren adayları tercih etmesi olasıdır.
Etik Yapay Zeka için İlkelerin Oluşturulması
empoze etmek için bir dizi kural oluşturmayı düşündük. yapay zeka onyıllardır.
En güçlü bilgisayarların yalnızca en özel bilimsel hesaplamaları yapabildikleri 1940'larda bile, bilimkurgu yazarları akıllı robotları kontrol etme fikri üzerinde kafa yormuşlardır.
Isaac Asimov, kısa öykülerinde bir güvenlik özelliği olarak robotların programlanmasına yerleştirildiğini öne sürdüğü Üç Robotik Yasasını ünlü olarak icat etti.
Bu yasalar, gelecekteki birçok bilimkurgu hikayesi için bir mihenk taşı haline geldi ve hatta AI'nın etiği üzerine gerçek çalışmaları bilgilendirdi.
Çağdaş araştırmalarda, AI araştırmacıları, etik AI için bir ilkeler listesi oluşturmak için daha temelli kaynaklara bakıyorlar.
Yapay zeka nihayetinde insan yaşamını etkileyeceğinden, ne yapmamız ve ne yapmamamız gerektiğine dair temel bir anlayışa sahip olmalıyız.
Belmont Raporu
Bir referans noktası olarak, etik araştırmacıları bir kılavuz olarak Belmont Raporuna bakarlar. bu Belmont Raporu 1979'da ABD Ulusal Sağlık Enstitüleri tarafından yayınlanan bir belgeydi. 2. Dünya Savaşı'nda gerçekleştirilen biyomedikal vahşet, tıpla uğraşan araştırmacılar için etik kuralların yasalaşmasına neden oldu.
İşte raporda bahsedilen üç temel ilke:
- Kişilere saygı
- ihsan
- Adalet
İlk ilke, tüm insan öznelerinin onurunu ve özerkliğini korumayı amaçlar. Örneğin, araştırmacılar katılımcıları aldatmayı en aza indirmeli ve her bir kişiden açık rıza vermesini istemelidir.
İkinci ilke olan fayda, araştırmacının katılımcılara olası zararı en aza indirme görevine odaklanır. Bu ilke, araştırmacılara, bireysel risklerin potansiyel sosyal faydalara oranını dengeleme görevini verir.
Belmont Raporunun ortaya koyduğu nihai ilke olan adalet, araştırmadan yararlanabilecek gruplar arasında risk ve faydaların eşit dağılımına odaklanır. Araştırmacıların daha geniş popülasyondan araştırma konularını seçme görevi vardır. Bunu yapmak, toplumu olumsuz yönde etkileyebilecek bireysel ve sistemik önyargıları en aza indirecektir.
Yapay Zeka Araştırmalarında Etiği Yerleştirmek
Belmont Raporu öncelikle insan denekleri içeren araştırmaları hedef alırken, ilkeler AI etiği alanına uygulanacak kadar genişti.
Büyük Veri, yapay zeka alanında değerli bir kaynak haline geldi. Araştırmacıların nasıl veri topladığını belirleyen süreçler etik yönergeleri takip etmelidir.
Çoğu ülkede veri gizliliği yasalarının uygulanması, şirketlerin hangi verileri toplayabileceği ve kullanabileceği konusunda bir miktar sınır koyar. Bununla birlikte, ulusların çoğunda, AI'nın zarar vermek için kullanılmasını önlemek için hala ilkel bir dizi yasa vardır.
Yapay Zeka ile Etik Olarak Nasıl Çalışılır?
AI'nın daha etik ve sorumlu bir şekilde kullanılmasına yönelik çalışmaya yardımcı olabilecek birkaç temel kavram aşağıda verilmiştir.
Önyargı Kontrolü
Yapay zeka doğası gereği tarafsız değildir. Algoritmalar, öğrendiği veriler önyargı içerdiğinden, eklenen önyargı ve ayrımcılığa her zaman duyarlıdır.
Ayrımcı yapay zekanın yaygın bir örneği, yüz tanıma sistemlerinde sıklıkla görülen türdür. Bu modeller genellikle beyaz erkek yüzlerini tanımlamada başarılıdır, ancak daha koyu tenli insanları tanımada daha az başarılıdır.
OpenAI'nin DALL-E 2'sinde başka bir örnek görülmektedir. keşfetti Belirli istemlerin, modelin çevrimiçi görüntü veri kümesinden aldığı cinsiyet ve ırksal önyargıları sıklıkla yeniden ürettiğini.
Örneğin, avukatların görüntüleri için bir istem verildiğinde, DALL-E 2, erkek avukatların görüntülerini döndürür. Öte yandan, uçuş görevlilerinin fotoğraflarının istenmesi, çoğunlukla kadın uçuş görevlilerinin geri dönmesine neden oluyor.
AI sistemlerinden önyargıyı tamamen kaldırmak imkansız olsa da, etkilerini en aza indirmek için adımlar atabiliriz. Araştırmacılar ve mühendisler, eğitim verilerini anlayarak ve AI sisteminin nasıl çalışması gerektiğine dair girdi sunmak için çeşitli bir ekip işe alarak önyargı üzerinde daha fazla kontrol elde edebilirler.
İnsan merkezli tasarım yaklaşımı
Favori uygulamanızdaki algoritmalar sizi olumsuz etkileyebilir.
Facebook ve TikTok gibi platformlar, kullanıcıları platformlarında tutmak için hangi içeriklerin sunulacağını öğrenebiliyor.
Zarar verme niyeti olmasa bile, kullanıcıları mümkün olduğunca uzun süre uygulamalarına bağlı tutma hedefi zihinsel sağlık sorunlarına yol açabilir. 'Kıyamet kaydırma' terimi, Twitter ve Facebook gibi platformlarda olumsuz haberleri okumak için aşırı miktarda zaman harcamak için her şeyi kapsayan bir terim olarak popülaritesini artırdı.
Diğer durumlarda, nefret içeren içerik ve yanlış bilgiler, kullanıcı katılımını artırmaya yardımcı olduğu için daha geniş bir platform alır. A 2021 çalışmada New York Üniversitesi'ndeki araştırmacılardan yapılan bir araştırmaya göre, yanlış bilgi verdiği bilinen kaynaklardan gelen gönderiler, saygın haber kaynaklarından altı kat daha fazla beğeni alıyor.
Bu algoritmalar, insan merkezli bir tasarım yaklaşımından yoksundur. Bir yapay zekanın bir eylemi nasıl gerçekleştireceğini tasarlayan mühendisler, kullanıcı deneyimini her zaman akıllarında tutmalıdır.
Araştırmacılar ve mühendisler her zaman şu soruyu sormalıdır: 'Bu, kullanıcıya nasıl yarar sağlar?'
Çoğu AI modeli bir kara kutu modelini takip eder. içinde bir kara kutu makine öğrenme AI'nın neden belirli bir sonuca ulaştığını hiçbir insanın açıklayamadığı bir AI anlamına gelir.
Kara kutular sorunlu çünkü makinelere olan güvenimizi azaltıyor.
Örneğin, Facebook'un hükümetlerin suçluları takip etmesine yardımcı olan bir algoritma yayınladığı bir senaryo düşünelim. AI sistemi sizi işaretlerse, kimse bu kararı neden verdiğini açıklayamaz. Bu tür bir sistem, tutuklanmanızın tek nedeni olmamalıdır.
Açıklanabilir AI veya XAI, nihai sonuca katkıda bulunan faktörlerin bir listesini döndürmelidir. Varsayımsal suç izleyicimize geri dönersek, şüpheli dil veya terimler gösteren gönderilerin bir listesini döndürmek için AI sistemini değiştirebiliriz. Oradan, bir insan, işaretlenen kullanıcının araştırmaya değer olup olmadığını doğrulayabilir.
XAI, AI sistemlerinde daha fazla şeffaflık ve güven sağlar ve insanların daha iyi kararlar almasına yardımcı olabilir.
Sonuç
Tüm insan yapımı icatlar gibi, yapay zeka da doğası gereği iyi veya kötü değildir. Önemli olan yapay zekayı kullanma şeklimizdir.
Yapay zeka hakkında benzersiz olan şey, büyüme hızıdır. Son beş yılda, makine öğrenimi alanında her gün yeni ve heyecan verici keşifler gördük.
Ancak, yasa o kadar hızlı değil. Şirketler ve hükümetler, karları en üst düzeye çıkarmak veya vatandaşların kontrolünü ele geçirmek için yapay zekadan yararlanmaya devam ederken, bu algoritmaların kullanımında şeffaflık ve eşitlik için zorlamanın yollarını bulmalıyız.
Gerçekten etik yapay zekanın mümkün olduğunu düşünüyor musunuz?
Yorum bırak