Ako zabezpečíme, aby sme AI používali zodpovedne?
Pokroky v oblasti strojového učenia ukazujú, že modely sa môžu rýchlo škálovať a ovplyvniť veľkú časť spoločnosti.
Algoritmy riadia informačný kanál na telefónoch každého. Vlády a korporácie začínajú používať AI na prijímanie rozhodnutí založených na údajoch.
Ako sa umelá inteligencia stáva súčasťou fungovania sveta, ako zabezpečíme, aby konala spravodlivo?
V tomto článku sa pozrieme na etické výzvy používania AI a uvidíme, čo môžeme urobiť, aby sme zabezpečili zodpovedné používanie AI.
Čo je to etická AI?
Etická AI označuje umelú inteligenciu, ktorá dodržiava určitý súbor etických zásad.
Inými slovami, je to spôsob, ako môžu jednotlivci a organizácie zodpovedne pracovať s AI.
V posledných rokoch sa spoločnosti začali držať zákonov o ochrane osobných údajov po tom, čo vyšli najavo dôkazy o zneužívaní a porušovaní. Podobne sa odporúčajú usmernenia pre etickú AI, aby sa zabezpečilo, že AI nebude negatívne ovplyvňovať spoločnosť.
Napríklad niektoré typy AI fungujú neobjektívnym spôsobom alebo zachovávajú už existujúce predsudky. Zoberme si algoritmus, ktorý pomáha náborovým pracovníkom triediť tisíce životopisov. Ak je algoritmus trénovaný na súbore údajov s prevažne mužskými alebo bielymi zamestnancami, potom je možné, že algoritmus uprednostní uchádzačov, ktorí patria do týchto kategórií.
Stanovenie princípov etickej AI
Uvažovali sme o vytvorení súboru pravidiel, ktoré by sme mali uložiť umelá inteligencia už celé desaťročia.
Dokonca aj v 1940. rokoch XNUMX. storočia, keď najvýkonnejšie počítače mohli robiť len tie najšpecializovanejšie vedecké výpočty, sa spisovatelia sci-fi zamýšľali nad myšlienkou riadenia inteligentných robotov.
Isaac Asimov preslávil tri zákony robotiky, ktoré ako bezpečnostný prvok navrhol začleniť do programovania robotov vo svojich poviedkach.
Tieto zákony sa stali skúšobným kameňom mnohých budúcich sci-fi príbehov a dokonca podnietili skutočné štúdie o etike AI.
V súčasnom výskume výskumníci AI hľadajú viac podložené zdroje, aby vytvorili zoznam princípov pre etickú AI.
Keďže AI v konečnom dôsledku ovplyvní ľudské životy, musíme mať základné pochopenie toho, čo by sme mali a čo by sme nemali robiť.
Belmontova správa
Ako referenčný bod sa výskumníci v oblasti etiky pozerajú na Belmontovu správu. The Belmontova správa bol dokument publikovaný americkým Národným inštitútom zdravia v roku 1979. Biomedicínske zverstvá spáchané počas 2. svetovej vojny viedli k tlaku na uzákonenie etických smerníc pre výskumníkov praktizujúcich medicínu.
Tu sú tri základné princípy uvedené v správe:
- Úcta k osobám
- dobročinnosť
- spravodlivosť
Cieľom prvého princípu je zachovať dôstojnosť a autonómiu všetkých ľudských subjektov. Napríklad výskumníci by mali minimalizovať klamanie účastníkov a mali by od každej osoby vyžadovať výslovný súhlas.
Druhý princíp, prospešnosť, sa zameriava na povinnosť výskumníka minimalizovať potenciálne poškodenie účastníkov. Tento princíp dáva výskumníkom povinnosť vyvážiť pomer jednotlivých rizík k potenciálnym sociálnym výhodám.
Spravodlivosť, posledný princíp stanovený Belmontovou správou, sa zameriava na rovnomerné rozdelenie rizík a výhod medzi skupiny, ktoré by mohli mať prospech z výskumu. Vedci majú povinnosť vyberať si výskumné subjekty zo širšej populácie. Tým by sa minimalizovali individuálne a systémové predsudky, ktoré by mohli negatívne ovplyvniť spoločnosť.
Umiestňovanie etiky do výskumu AI
Zatiaľ čo Belmontova správa bola primárne zameraná na výskum zahŕňajúci ľudské subjekty, princípy boli dostatočne široké na to, aby sa vzťahovali na oblasť etiky AI.
Big Data sa stali cenným zdrojom v oblasti umelej inteligencie. Procesy, ktoré určujú, ako výskumníci zhromažďujú údaje, by sa mali riadiť etickými pokynmi.
Implementácia zákonov o ochrane osobných údajov vo väčšine krajín do istej miery obmedzuje, aké údaje môžu spoločnosti zhromažďovať a používať. Väčšina národov však stále má zavedený základný súbor zákonov, ktoré zabraňujú používaniu AI na spôsobenie škody.
Ako eticky pracovať s AI
Tu je niekoľko kľúčových konceptov, ktoré môžu pomôcť pri dosahovaní etickejšieho a zodpovednejšieho používania AI.
Kontrola zaujatosti
Umelá inteligencia nie je vo svojej podstate neutrálna. Algoritmy sú vždy náchylné na vložené skreslenie a diskrimináciu, pretože údaje, z ktorých sa učia, zahŕňajú skreslenie.
Bežným príkladom diskriminačnej AI je typ, ktorý sa často objavuje v systémoch rozpoznávania tváre. Týmto modelom sa často darí identifikovať biele mužské tváre, no menej sa im darí rozpoznávať ľudí s tmavšou pokožkou.
Ďalší príklad sa objavuje v OpenAI DALL-E 2. Používatelia majú objavil že určité podnety často reprodukujú rodové a rasové predsudky, ktoré model prevzal zo svojho súboru údajov online obrázkov.
Keď sa napríklad zobrazí výzva na zadanie obrázkov právnikov, DALL-E 2 vráti obrázky právnikov. Na druhej strane, žiadosť o fotografie letušiek vracia väčšinou ženy letušky.
Aj keď môže byť nemožné úplne odstrániť zaujatosť zo systémov AI, môžeme podniknúť kroky na minimalizáciu jej účinkov. Výskumníci a inžinieri môžu dosiahnuť väčšiu kontrolu nad zaujatosťou pochopením tréningových údajov a najatím rôznorodého tímu, ktorý ponúkne informácie o tom, ako by mal systém AI fungovať.
Dizajnový prístup zameraný na človeka
Algoritmy vo vašej obľúbenej aplikácii vás môžu negatívne ovplyvniť.
Platformy ako Facebook a TikTok sa dokážu naučiť, aký obsah majú slúžiť na udržanie používateľov na svojich platformách.
Dokonca aj bez úmyslu spôsobiť škodu, cieľ udržať používateľov prilepených k svojej aplikácii tak dlho, ako je to možné, môže viesť k problémom duševného zdravia. Pojem „doomscrolling“ sa stal populárnym ako univerzálny výraz pre trávenie nadmerného množstva času čítaním negatívnych správ na platformách ako Twitter a Facebook.
V iných prípadoch dostávajú nenávistný obsah a dezinformácie širšiu platformu, pretože pomáhajú zvyšovať zapojenie používateľov. A 2021 štúdie od výskumníkov z New York University ukazuje, že príspevky zo zdrojov známych dezinformáciami získavajú šesťkrát viac lajkov ako renomované spravodajské zdroje.
Tieto algoritmy chýbajú v prístupe k dizajnu zameranému na človeka. Inžinieri, ktorí navrhujú, ako AI vykonáva akciu, musia mať vždy na pamäti používateľskú skúsenosť.
Výskumníci a inžinieri si musia vždy položiť otázku: „Aký prínos to prinesie používateľovi?“
Väčšina modelov AI sa riadi modelom čiernej skrinky. Vnútri čierna skrinka strojové učenie sa vzťahuje na AI, kde žiadny človek nedokáže vysvetliť, prečo AI dospela ku konkrétnemu výsledku.
Čierne skrinky sú problematické, pretože znižujú mieru dôvery, ktorú môžeme vložiť do strojov.
Predstavme si napríklad scenár, v ktorom Facebook zverejnil algoritmus, ktorý pomohol vládam vypátrať zločincov. Ak vás systém AI označí, nikto nebude schopný vysvetliť, prečo sa tak rozhodol. Tento typ systému by nemal byť jediným dôvodom, prečo by ste mali byť zatknutý.
Vysvetliteľné AI alebo XAI by mali vrátiť zoznam faktorov, ktoré prispeli ku konečnému výsledku. Ak sa vrátime k nášmu hypotetickému sledovaču zločincov, môžeme vyladiť systém AI tak, aby vrátil zoznam príspevkov s podozrivým jazykom alebo výrazmi. Odtiaľ môže človek overiť, či sa nahlásený používateľ oplatí preskúmať alebo nie.
XAI poskytuje väčšiu transparentnosť a dôveru v systémy AI a môže pomôcť ľuďom robiť lepšie rozhodnutia.
záver
Ako všetky vynálezy vytvorené človekom, ani umelá inteligencia nie je vo svojej podstate dobrá alebo zlá. Dôležitý je spôsob, akým používame AI.
Na umelej inteligencii je jedinečné tempo, akým rastie. Za posledných päť rokov sme každý deň videli nové a vzrušujúce objavy v oblasti strojového učenia.
Zákon však nie je taký rýchly. Keďže korporácie a vlády naďalej využívajú AI na maximalizáciu ziskov alebo prevzatie kontroly nad občanmi, musíme nájsť spôsoby, ako presadzovať transparentnosť a spravodlivosť pri používaní týchto algoritmov.
Myslíte si, že je možná skutočne etická AI?
Nechaj odpoveď