Hogyan biztosíthatjuk, hogy felelősen használjuk az AI-t?
A gépi tanulás fejlődése azt mutatja, hogy a modellek gyorsan méretezhetnek és hatással lehetnek a társadalom nagy részére.
Algoritmusok irányítják a hírfolyamot mindenki telefonján. A kormányok és a vállalatok kezdik használni a mesterséges intelligenciát, hogy adatokon alapuló döntéseket hozzanak.
Mivel a mesterséges intelligencia egyre jobban beépül a világ működésébe, hogyan biztosíthatjuk, hogy az AI tisztességesen járjon el?
Ebben a cikkben megvizsgáljuk az AI használatának etikai kihívásait, és meglátjuk, mit tehetünk az AI felelős használatának biztosítása érdekében.
Mi az Ethical AI?
Az etikus mesterséges intelligencia olyan mesterséges intelligenciára utal, amely betart egy bizonyos etikai irányelvet.
Más szóval, ez egy módja annak, hogy az egyének és a szervezetek felelős módon dolgozzanak együtt az AI-val.
Az elmúlt években a vállalatok elkezdték betartani az adatvédelmi törvényeket, miután a visszaélésekre és jogsértésekre utaló bizonyítékok napvilágra kerültek. Hasonlóképpen az etikus mesterséges intelligencia iránymutatásait ajánljuk annak biztosítására, hogy a mesterséges intelligencia ne legyen negatív hatással a társadalomra.
Például az AI bizonyos típusai elfogultan működnek, vagy állandósítják a már meglévő torzításokat. Nézzünk egy algoritmust, amely segít a toborzóknak az önéletrajzok ezrei közötti válogatásban. Ha az algoritmust túlnyomórészt férfi vagy fehér alkalmazottakat tartalmazó adatkészletre tanítják, akkor lehetséges, hogy az algoritmus előnyben részesíti azokat a jelentkezőket, akik ezekbe a kategóriákba tartoznak.
Az etikus mesterséges intelligencia alapelvei
Elgondolkodtunk azon, hogy létrehozzunk egy szabályrendszert, amelyet megkövetelhetünk mesterséges intelligencia évtizedek óta.
Még az 1940-es években is, amikor a legerősebb számítógépek csak a legspeciálisabb tudományos számításokat tudták elvégezni, a sci-fi írók elgondolkodtak az intelligens robotok irányításának gondolatán.
Isaac Asimov híresen megalkotta a Robotika Három törvényét, amelyet biztonsági elemként javasolt beépíteni a robotok programozásába a novelláiban.
Ezek a törvények sok jövőbeli sci-fi történet próbakövévé váltak, és még a mesterséges intelligencia etikájával foglalkozó tényleges tanulmányokat is megalapozták.
A kortárs kutatás során a mesterséges intelligencia kutatói megalapozottabb forrásokat keresnek, hogy összeállítsák az etikus mesterséges intelligencia elveinek listáját.
Mivel a mesterséges intelligencia végső soron emberi életekre lesz hatással, alapvetően meg kell értenünk, mit szabad és mit nem szabad tennünk.
A Belmont-jelentés
Az etikai kutatók referenciapontként a Belmont-jelentést veszik alapul. Az Belmont-jelentés Az Egyesült Államok Nemzeti Egészségügyi Intézete által 1979-ben publikált dokumentum. A 2. világháborúban elkövetett orvosbiológiai atrocitások nyomán törekedtek az orvostudományt gyakorló kutatók számára etikai irányelvek megalkotására.
Íme a jelentésben említett három alapelv:
- Személyek tisztelete
- Jótékonyság
- Igazság
Az első alapelv célja minden emberi alany méltóságának és autonómiájának fenntartása. A kutatóknak például minimálisra kell csökkenteniük a résztvevők megtévesztését, és minden személytől meg kell követelniük kifejezett beleegyezését.
A második alapelv, a jótékonyság, a kutató azon kötelességére összpontosít, hogy minimálisra csökkentse a résztvevőket érő lehetséges károkat. Ez az elv azt a kötelezettséget adja a kutatóknak, hogy egyensúlyba hozzák az egyéni kockázatok és a lehetséges társadalmi haszon arányát.
Az igazságosság, a Belmont-jelentés végső alapelve, a kockázatok és előnyök egyenlő elosztására összpontosít azon csoportok között, akik számára előnyös lehet a kutatás. A kutatóknak kötelességük a szélesebb népességből kiválasztani a kutatási alanyokat. Ezzel minimálisra csökkentené az egyéni és rendszerszintű torzításokat, amelyek negatívan befolyásolhatják a társadalmat.
Az etika elhelyezése az AI-kutatásban
Míg a Belmont-jelentés elsősorban az embereket érintő kutatásokat célozta meg, az alapelvek elég tágak voltak ahhoz, hogy az AI-etika területén is alkalmazhatók legyenek.
A Big Data értékes erőforrássá vált a mesterséges intelligencia területén. A kutatók adatgyűjtési módját meghatározó folyamatoknak követniük kell az etikai irányelveket.
Az adatvédelmi törvények végrehajtása a legtöbb nemzetben némileg korlátozza azt, hogy a vállalatok milyen adatokat gyűjthetnek és használhatnak fel. A nemzetek többségének azonban még mindig van egy kezdetleges törvénye annak megakadályozására, hogy a mesterséges intelligencia kárt okozzon.
Hogyan dolgozzunk etikusan az AI-val
Íme néhány kulcsfontosságú fogalom, amelyek segíthetnek a mesterséges intelligencia etikusabb és felelősségteljesebb használatában.
Elfogultság vezérlése
A mesterséges intelligencia nem eleve semleges. Az algoritmusok mindig érzékenyek a beillesztett torzításra és diszkriminációra, mivel az általuk tanult adatok torzítást is tartalmaznak.
A diszkriminatív MI gyakori példája az arcfelismerő rendszerekben gyakran előforduló típus. Ezek a modellek gyakran sikerül azonosítani a fehér férfiarcokat, de kevésbé sikeresek a sötétebb bőrűek felismerésében.
Egy másik példa megjelenik az OpenAI DALL-E 2-ben felfedezett hogy bizonyos felszólítások gyakran reprodukálják a nemi és faji torzításokat, amelyeket a modell az online képek adatkészletéből vett fel.
Például amikor ügyvédek képét kéri, a DALL-E 2 férfi ügyvédek képeit adja vissza. Másrészt, ha a légiutas-kísérőkről képeket kérnek, többnyire női légiutas-kísérők térnek vissza.
Bár előfordulhat, hogy lehetetlen teljesen eltávolítani a torzítást az AI-rendszerekből, lépéseket tehetünk a hatások minimalizálására. A kutatók és mérnökök jobban ellenőrizhetik a torzítást, ha megértik a képzési adatokat, és egy változatos csapatot bérelnek fel, hogy bemutassák az AI-rendszer működését.
Emberközpontú tervezési megközelítés
A kedvenc alkalmazásod algoritmusai negatívan befolyásolhatják Önt.
Az olyan platformok, mint a Facebook és a TikTok, meg tudják tanulni, hogy milyen tartalmat szolgáltassanak ki, hogy a felhasználók a platformjukon maradjanak.
Még a károkozás szándéka nélkül is mentális egészségügyi problémákhoz vezethet az a cél, hogy a felhasználókat a lehető leghosszabb ideig ragaszkodják az alkalmazásukhoz. A „doomscrolling” kifejezés népszerűsége megnőtt, mivel a túl sok időt töltenek negatív hírek olvasásával olyan platformokon, mint a Twitter és a Facebook.
Más esetekben a gyűlöletkeltő tartalom és a félretájékoztatás szélesebb platformot kap, mert elősegíti a felhasználók elköteleződését. A 2021 vizsgálat A New York-i Egyetem kutatói azt mutatják, hogy a félretájékoztatásról ismert forrásokból származó bejegyzéseket hatszor több kedvelés éri, mint a jó hírű hírforrások.
Ezek az algoritmusok hiányoznak az emberközpontú tervezési megközelítésből. Azoknak a mérnököknek, akik azt tervezik, hogy egy mesterséges intelligencia hogyan hajtson végre egy műveletet, mindig szem előtt kell tartania a felhasználói élményt.
A kutatóknak és mérnököknek mindig fel kell tenniük a kérdést: "milyen előnyökkel jár ez a felhasználó számára?"
A legtöbb mesterséges intelligencia modell fekete doboz modellt követ. Egy fekete doboz benne gépi tanulás olyan mesterséges intelligenciára utal, ahol egyetlen ember sem tudja megmagyarázni, hogy az MI miért jutott egy adott eredményre.
A fekete dobozok problémásak, mert csökkentik a gépekbe vetett bizalom mértékét.
Például képzeljünk el egy olyan forgatókönyvet, amelyben a Facebook kiadott egy algoritmust, amely segített a kormányoknak a bűnözők felkutatásában. Ha az AI-rendszer megjelöl, senki sem fogja tudni megmagyarázni, miért döntött így. Ez a fajta rendszer nem lehet az egyetlen ok, amiért le kell tartóztatni.
A megmagyarázható mesterséges intelligencia vagy XAI azoknak a tényezőknek a listáját adja vissza, amelyek hozzájárultak a végeredményhez. Visszatérve a feltételezett bűnözői nyomkövetőhöz, módosíthatjuk az AI-rendszert, hogy visszaadja a gyanús nyelvezetet vagy kifejezéseket tartalmazó bejegyzések listáját. Innentől az ember ellenőrizheti, hogy a megjelölt felhasználót érdemes-e megvizsgálni vagy sem.
Az XAI nagyobb átláthatóságot és bizalmat biztosít az AI-rendszerekben, és segíthet az embereknek jobb döntések meghozatalában.
Következtetés
Mint minden ember alkotta találmány, a mesterséges intelligencia sem jó, sem rossz. Az AI használatának módja számít.
Ami egyedülálló a mesterséges intelligenciában, az a növekedés üteme. Az elmúlt öt évben minden nap új és izgalmas felfedezéseket láthattunk a gépi tanulás területén.
A törvény azonban nem ilyen gyors. Mivel a vállalatok és a kormányok továbbra is kihasználják a mesterséges intelligenciát a profit maximalizálása vagy a polgárok feletti irányítás megszerzése érdekében, meg kell találnunk a módját, hogyan mozdítsuk elő az átláthatóságot és a méltányosságot ezen algoritmusok használatában.
Ön szerint lehetséges az igazán etikus mesterséges intelligencia?
Hagy egy Válaszol