Jak zajistíme, že AI používáme zodpovědně?
Pokroky ve strojovém učení ukazují, že modely lze rychle škálovat a ovlivnit velkou část společnosti.
Algoritmy řídí zpravodajství na všech telefonech. Vlády a korporace začínají používat AI k rozhodování na základě dat.
Jak se umělá inteligence více zakořenila v tom, jak svět funguje, jak zajistíme, aby umělá inteligence jednala spravedlivě?
V tomto článku se podíváme na etické problémy používání AI a uvidíme, co můžeme udělat, abychom zajistili odpovědné používání AI.
Co je etická AI?
Etická AI označuje umělou inteligenci, která dodržuje určitý soubor etických zásad.
Jinými slovy, je to způsob, jak jednotlivci a organizace pracovat s AI odpovědným způsobem.
V posledních letech se společnosti začaly držet zákonů o ochraně osobních údajů poté, co vyšly najevo důkazy o zneužití a porušení. Podobně se doporučují pokyny pro etickou umělou inteligenci, aby se zajistilo, že umělá inteligence nebude negativně ovlivňovat společnost.
Některé typy umělé inteligence například fungují neobjektivně nebo udržují již existující předsudky. Podívejme se na algoritmus, který pomáhá náborářům třídit tisíce životopisů. Pokud je algoritmus trénován na datové sadě s převážně mužskými nebo bílými zaměstnanci, pak je možné, že algoritmus upřednostní žadatele, kteří spadají do těchto kategorií.
Stanovení zásad pro etické AI
Přemýšleli jsme o vytvoření souboru pravidel, která bychom měli uložit umělá inteligence po desetiletí.
Dokonce i ve 1940. letech XNUMX. století, kdy nejvýkonnější počítače uměly jen ty nejspecializovanější vědecké výpočty, se autoři sci-fi zamýšleli nad myšlenkou ovládání inteligentních robotů.
Isaac Asimov skvěle razil tři zákony robotiky, které jako bezpečnostní prvek navrhoval začlenit do programování robotů v jeho povídkách.
Tyto zákony se staly prubířským kamenem mnoha budoucích sci-fi příběhů a dokonce ovlivnily skutečné studie o etice umělé inteligence.
V současném výzkumu hledají výzkumníci umělé inteligence více uzemněné zdroje, aby vytvořili seznam principů etické umělé inteligence.
Protože umělá inteligence v konečném důsledku ovlivní lidské životy, musíme mít základní pochopení toho, co bychom měli a neměli dělat.
Belmontova zpráva
Jako referenční bod nahlížejí výzkumníci etiky do Belmontovy zprávy jako průvodce. The Zpráva Belmont byl dokument publikovaný americkým Národním institutem zdraví v roce 1979. Biomedicínská zvěrstva spáchaná ve 2. světové válce vedla k tlaku na uzákonění etických směrnic pro výzkumníky provozující medicínu.
Zde jsou tři základní principy zmíněné ve zprávě:
- Úcta k osobám
- Dobročinnost
- Spravedlnost
První princip si klade za cíl zachovat důstojnost a autonomii všech lidských subjektů. Výzkumníci by například měli minimalizovat klamání účastníků a měli by od každé osoby vyžadovat výslovný souhlas.
Druhý princip, beneficience, se zaměřuje na povinnost výzkumníka minimalizovat potenciální újmu účastníkům. Tento princip dává výzkumníkům povinnost vyvážit poměr jednotlivých rizik k potenciálním sociálním přínosům.
Spravedlnost, poslední princip stanovený Belmontovou zprávou, se zaměřuje na rovné rozdělení rizik a přínosů mezi skupiny, které by mohly mít z výzkumu prospěch. Vědci mají povinnost vybírat výzkumné subjekty z širší populace. Tím by se minimalizovaly individuální a systémové předsudky, které by mohly negativně ovlivnit společnost.
Etika ve výzkumu AI
Zatímco Belmontova zpráva byla primárně zaměřena na výzkum zahrnující lidské subjekty, zásady byly dostatečně široké, aby se daly aplikovat na oblast etiky umělé inteligence.
Big Data se stala cenným zdrojem v oblasti umělé inteligence. Procesy, které určují, jak výzkumníci shromažďují data, by se měly řídit etickými pokyny.
Implementace zákonů o ochraně osobních údajů ve většině zemí poněkud omezuje, jaké údaje mohou společnosti shromažďovat a používat. Většina národů však stále má základní soubor zákonů, které zabraňují použití umělé inteligence ke způsobení škody.
Jak pracovat s AI eticky
Zde je několik klíčových konceptů, které mohou pomoci při práci na etičtějším a odpovědnějším používání AI.
Kontrola pro zaujatost
Umělá inteligence není ze své podstaty neutrální. Algoritmy jsou vždy náchylné na vložené zkreslení a diskriminaci, protože data, ze kterých se učí, obsahují zkreslení.
Běžným příkladem diskriminační umělé inteligence je typ, který se často objevuje v systémech rozpoznávání obličejů. Těmto modelům se často daří identifikovat bílé mužské tváře, ale méně se jim daří rozpoznávat lidi s tmavší pletí.
Další příklad se objevuje v OpenAI DALL-E 2. Uživatelé mají objevil že určité podněty často reprodukují genderové a rasové předsudky, které modelka převzala ze svého datového souboru online obrázků.
Například, když DALL-E 2 dostane výzvu k zadání obrázků právníků, vrátí obrázky mužských právníků. Na druhou stranu se žádostí o fotografie letušek vrací většinou ženy letušky.
I když může být nemožné zcela odstranit zkreslení ze systémů AI, můžeme podniknout kroky k minimalizaci jeho účinků. Výzkumníci a inženýři mohou dosáhnout větší kontroly nad zkreslením tím, že porozumí školicím datům a najmou různorodý tým, který nabídne informace o tom, jak by měl systém umělé inteligence fungovat.
Designový přístup zaměřený na člověka
Algoritmy ve vaší oblíbené aplikaci vás mohou negativně ovlivnit.
Platformy jako Facebook a TikTok se dokážou naučit, jaký obsah mají sloužit, aby udrželi uživatele na svých platformách.
I bez úmyslu způsobit škodu by cíl udržet uživatele přilepené k jejich aplikaci co nejdéle mohl vést k problémům s duševním zdravím. Pojem „doomscrolling“ se stal populárním jako univerzální termín pro trávení nadměrného množství času čtením negativních zpráv na platformách, jako je Twitter a Facebook.
V jiných případech dostávají nenávistný obsah a dezinformace širší platformu, protože pomáhají zvyšovat zapojení uživatelů. A 2021 studie od výzkumníků z New York University ukazuje, že příspěvky ze zdrojů známých dezinformacemi získávají šestkrát více lajků než renomované zpravodajské zdroje.
Tyto algoritmy postrádají přístup k návrhu zaměřenému na člověka. Inženýři, kteří navrhují, jak AI provádí akci, musí mít vždy na paměti uživatelský dojem.
Výzkumníci a inženýři si musí vždy položit otázku: 'Jaký přínos to má pro uživatele?'
Většina modelů AI se řídí modelem černé skříňky. Černá skříňka uvnitř strojové učení odkazuje na AI, kde žádný člověk nemůže vysvětlit, proč AI dospěla ke konkrétnímu výsledku.
Černé skříňky jsou problematické, protože snižují míru důvěry, kterou můžeme vložit do strojů.
Představme si například scénář, kdy Facebook uvolnil algoritmus, který vládám pomohl vystopovat zločince. Pokud vás systém AI označí, nikdo nebude schopen vysvětlit, proč se tak rozhodl. Tento typ systému by neměl být jediným důvodem, proč byste měli být zatčeni.
Vysvětlitelná AI nebo XAI by měla vrátit seznam faktorů, které přispěly ke konečnému výsledku. Vrátíme-li se zpět k našemu hypotetickému sledování zločinců, můžeme vyladit systém umělé inteligence tak, aby vrátil seznam příspěvků s podezřelým jazykem nebo výrazy. Odtud si člověk může ověřit, zda označený uživatel stojí za prozkoumání nebo ne.
XAI poskytuje více transparentnosti a důvěry v systémy AI a může lidem pomoci lépe se rozhodovat.
Proč investovat do čističky vzduchu?
Stejně jako všechny vynálezy vytvořené člověkem není ani umělá inteligence ve své podstatě dobrá nebo špatná. Důležitý je způsob, jakým používáme AI.
Co je na umělé inteligenci jedinečné, je rychlost jejího růstu. V posledních pěti letech jsme každý den viděli nové a vzrušující objevy v oblasti strojového učení.
Zákon však není tak rychlý. Vzhledem k tomu, že korporace a vlády pokračují ve využívání umělé inteligence k maximalizaci zisků nebo převzetí kontroly nad občany, musíme najít způsoby, jak prosadit transparentnost a spravedlnost při používání těchto algoritmů.
Myslíte si, že je možná skutečně etická umělá inteligence?
Napsat komentář