Süni intellektdən məsuliyyətlə istifadə etdiyimizə necə əmin ola bilərik?
Maşın öyrənməsindəki irəliləyişlər göstərir ki, modellər sürətlə miqyaslandıra və cəmiyyətin böyük bir hissəsinə təsir göstərə bilər.
Alqoritmlər hər kəsin telefonunda xəbər lentinə nəzarət edir. Hökumətlər və korporasiyalar məlumat əsasında qərarlar qəbul etmək üçün süni intellektdən istifadə etməyə başlayırlar.
Süni intellekt dünyanın necə işlədiyinə daha da kök saldıqca, süni intellektin ədalətli fəaliyyət göstərdiyinə necə əmin ola bilərik?
Bu yazıda biz süni intellektdən istifadənin etik problemlərini nəzərdən keçirəcəyik və AI-nin məsuliyyətli istifadəsini təmin etmək üçün nə edə biləcəyimizi görəcəyik.
Etik AI nədir?
Etik süni intellekt müəyyən etik qaydalara riayət edən süni intellektə aiddir.
Başqa sözlə, bu, fərdlər və təşkilatlar üçün AI ilə məsuliyyətli şəkildə işləmək üçün bir yoldur.
Son illərdə korporasiyalar sui-istifadə və pozuntu dəlilləri üzə çıxdıqdan sonra məlumatların məxfiliyi qanunlarına sadiq qalmağa başladılar. Eynilə, süni intellektin cəmiyyətə mənfi təsir göstərmədiyinə əmin olmaq üçün etik AI üçün təlimatlar tövsiyə olunur.
Məsələn, bəzi AI növləri qərəzli şəkildə işləyir və ya artıq mövcud olan qərəzləri davam etdirir. Gəlin işə götürənlərə minlərlə rezyumeni çeşidləməyə kömək edən alqoritmi nəzərdən keçirək. Əgər alqoritm əsasən kişi və ya ağdərili işçilərdən ibarət verilənlər bazasında təlim keçibsə, o zaman alqoritmin həmin kateqoriyalara aid olan ərizəçilərə üstünlük verməsi mümkündür.
Etik AI üçün Prinsiplərin müəyyən edilməsi
Tətbiq etmək üçün bir sıra qaydalar yaratmağı düşündük süni intellekt onilliklər ərzində.
Hətta 1940-cı illərdə, ən güclü kompüterlərin yalnız ən xüsusi elmi hesablamaları edə bildiyi bir vaxtda, fantastika yazıçıları ağıllı robotları idarə etmək ideyası üzərində düşünürdülər.
Isaac Asimov məşhur şəkildə Robototexnikanın Üç Qanununu icad etdi və o, qısa hekayələrində robotların proqramlaşdırılmasına təhlükəsizlik xüsusiyyəti kimi daxil edilməsini təklif etdi.
Bu qanunlar bir çox gələcək elmi-fantastik hekayələr üçün məhək daşına çevrildi və hətta süni intellektin etikası ilə bağlı aktual tədqiqatlar haqqında məlumat verdi.
Müasir tədqiqatlarda süni intellekt üzrə tədqiqatçılar etik süni intellekt üçün prinsiplərin siyahısını yaratmaq üçün daha əsaslı mənbələrə baxırlar.
Süni intellekt son nəticədə insan həyatına təsir göstərəcəyi üçün biz nə etməli olduğumuzu və etməməli olduğumuzu əsaslı şəkildə başa düşməliyik.
Belmont Hesabatı
Bir istinad nöqtəsi üçün etika tədqiqatçıları Belmont Hesabatına bələdçi kimi baxırlar. The Belmont Hesabatı 1979-cu ildə ABŞ Milli Sağlamlıq İnstitutu tərəfindən nəşr olunmuş sənəd idi. İkinci Dünya Müharibəsində həyata keçirilən biotibbi vəhşiliklər, tibblə məşğul olan tədqiqatçılar üçün etik qaydaların qanunvericiliyə çıxarılmasına təkan verdi.
Hesabatda qeyd olunan üç təməl prinsip bunlardır:
- Şəxslərə hörmət
- Faydalılıq
- Ədalət
Birinci prinsip bütün insan subyektlərinin ləyaqətini və muxtariyyətini qorumağı hədəfləyir. Məsələn, tədqiqatçılar aldadıcı iştirakçıları minimuma endirməli və hər bir şəxsdən onların açıq razılığını tələb etməlidir.
İkinci prinsip, xeyirxahlıq, tədqiqatçının iştirakçılara potensial zərəri minimuma endirmək vəzifəsinə yönəlmişdir. Bu prinsip tədqiqatçılara fərdi risklərin potensial sosial faydalara nisbətini tarazlaşdırmaq vəzifəsi qoyur.
Belmont Hesabatında ortaya qoyulan son prinsip olan ədalət, tədqiqatdan faydalana biləcək qruplar arasında risk və faydaların bərabər paylanmasına diqqət yetirir. Tədqiqatçıların vəzifəsi daha geniş əhali arasından tədqiqat subyektlərini seçməkdir. Bunu etmək, cəmiyyətə mənfi təsir göstərə biləcək fərdi və sistemli qərəzləri minimuma endirmiş olar.
AI Tədqiqatında Etikanın Yerləşdirilməsi
Belmont Hesabatı ilk növbədə insan subyektlərini əhatə edən tədqiqata yönəldilsə də, prinsiplər süni intellekt etikası sahəsinə tətbiq etmək üçün kifayət qədər geniş idi.
Big Data süni intellekt sahəsində dəyərli mənbəyə çevrilib. Tədqiqatçıların məlumatları necə toplayacağını müəyyən edən proseslər etik qaydalara əməl etməlidir.
Əksər ölkələrdə məlumatların məxfiliyi qanunlarının tətbiqi şirkətlərin toplaya və istifadə edə biləcəyi məlumatlara bir qədər məhdudiyyət qoyur. Bununla belə, dövlətlərin əksəriyyətində süni intellektdən zərər vurmaq üçün istifadənin qarşısını almaq üçün hələ də ibtidai qanunlar mövcuddur.
Etik olaraq AI ilə necə işləmək olar
Budur, AI-nin daha etik və məsuliyyətli istifadəsi istiqamətində işləməyə kömək edə biləcək bir neçə əsas anlayış.
Bias üçün nəzarət
Süni intellekt təbii olaraq neytral deyil. Alqoritmlər həmişə daxil edilmiş qərəzliyə və ayrı-seçkiliyə həssasdırlar, çünki öyrəndiyi məlumatlar qərəzliliyi ehtiva edir.
Ayrı-seçkilik edən AI-nin ümumi nümunəsi üz tanıma sistemlərində tez-tez görünən növdür. Bu modellər tez-tez ağ kişi üzlərini müəyyən etməyə müvəffəq olurlar, lakin daha qaranlıq dərili insanları tanımaqda daha az uğur qazanırlar.
Başqa bir nümunə OpenAI-nin DALL-E 2-də görünür. İstifadəçilər var aşkar müəyyən göstərişlər tez-tez modelin onlayn görüntülər toplusundan götürdüyü gender və irqi qərəzləri təkrarlayır.
Məsələn, vəkillərin şəkilləri üçün sorğu verildikdə, DALL-E 2 kişi vəkillərin şəkillərini qaytarır. Digər tərəfdən, stüardessaların şəkillərini tələb etmək daha çox qadın stüardessaları geri qaytarır.
Süni intellekt sistemlərindən qərəzliyi tamamilə aradan qaldırmaq mümkün olmasa da, onun təsirlərini minimuma endirmək üçün addımlar ata bilərik. Tədqiqatçılar və mühəndislər təlim məlumatlarını başa düşmək və süni intellekt sisteminin necə işləməsi barədə məlumat vermək üçün müxtəlif komandanı işə götürməklə qərəzliyə daha çox nəzarət edə bilərlər.
İnsan mərkəzli dizayn yanaşması
Sevimli tətbiqinizdəki alqoritmlər sizə mənfi təsir göstərə bilər.
Facebook və TikTok kimi platformalar istifadəçiləri öz platformalarında saxlamaq üçün hansı məzmunun xidmət göstərəcəyini öyrənə bilir.
Zərər vermək niyyəti olmasa belə, istifadəçiləri mümkün qədər uzun müddət öz tətbiqlərinə yapışdırmaq məqsədi psixi sağlamlıq problemlərinə səbəb ola bilər. Twitter və Facebook kimi platformalarda mənfi xəbərləri oxumaq üçün həddən artıq çox vaxt sərf etmək üçün istifadə edilən "qiyamət sürüşməsi" termini populyarlıq qazandı.
Digər hallarda, nifrət dolu məzmun və dezinformasiya daha geniş platforma əldə edir, çünki bu, istifadəçi əlaqəsini artırmağa kömək edir. A 2021 təhsil Nyu-York Universitetinin tədqiqatçılarının apardıqları araşdırmalar göstərir ki, dezinformasiya ilə tanınan mənbələrdən gələn yazılar nüfuzlu xəbər mənbələrindən altı dəfə çox bəyənmə alır.
Bu alqoritmlər insan mərkəzli dizayn yanaşmasında çatışmır. Süni intellektin hərəkəti necə yerinə yetirdiyini dizayn edən mühəndislər həmişə istifadəçi təcrübəsini nəzərə almalıdırlar.
Tədqiqatçılar və mühəndislər həmişə sual verməlidirlər: 'Bunun istifadəçiyə nə faydası var?'
Əksər AI modelləri qara qutu modelini izləyir. İçində qara qutu maşın təlim heç bir insanın süni intellektin müəyyən bir nəticəyə gəlməsinin səbəbini izah edə bilmədiyi AI-ya aiddir.
Qara qutular problemlidir, çünki bu, maşınlara qoya biləcəyimiz etibarı azaldır.
Məsələn, Facebook-un hökumətlərə cinayətkarların izinə düşməsinə kömək edən bir alqoritm buraxdığı bir ssenarini təsəvvür edək. Süni intellekt sistemi sizi qeyd edərsə, heç kim niyə belə qərar verdiyini izah edə bilməyəcək. Bu tip sistem sizin həbs olunmağınızın yeganə səbəbi olmamalıdır.
İzah edilə bilən AI və ya XAI yekun nəticəyə töhfə verən amillərin siyahısını qaytarmalıdır. Hipotetik cinayət izləyicimizə qayıdaraq, şübhəli dil və ya terminləri göstərən yazıların siyahısını qaytarmaq üçün AI sistemini düzəldə bilərik. Oradan bir insan işarələnmiş istifadəçinin araşdırmağa dəyər olub olmadığını yoxlaya bilər.
XAI süni intellekt sistemlərində daha çox şəffaflıq və etibar təmin edir və insanlara daha yaxşı qərarlar qəbul etməyə kömək edə bilər.
Nəticə
Bütün süni ixtiralar kimi, süni intellekt də təbii olaraq yaxşı və ya pis deyil. Əhəmiyyətli olan süni intellektdən necə istifadə etməyimizdir.
Süni intellektin unikallığı onun inkişaf tempidir. Son beş ildə biz hər gün maşın öyrənməsi sahəsində yeni və maraqlı kəşflər görürük.
Ancaq qanun o qədər də sürətli deyil. Korporasiyalar və hökumətlər mənfəəti artırmaq və ya vətəndaşların nəzarətini ələ keçirmək üçün süni intellektdən istifadə etməyə davam etdikcə, biz bu alqoritmlərin istifadəsində şəffaflıq və bərabərliyə təkan vermək yollarını tapmalıyıq.
Sizcə, həqiqətən etik süni intellekt mümkündürmü?
Cavab yaz