Sommario[Nascondere][Spettacolo]
Poiché sempre più industrie utilizzano la potenza degli algoritmi per automatizzare le operazioni e fare scelte, l'apprendimento automatico sta diventando una componente cruciale del modo in cui opera il mondo contemporaneo.
La questione della distorsione nell'apprendimento automatico è fondamentale da tenere in considerazione quando i modelli di apprendimento automatico vengono integrati nei processi decisionali di varie organizzazioni.
Garantire che le scelte generate dagli algoritmi siano imparziali e prive di pregiudizi dovrebbe essere l'obiettivo di qualsiasi organizzazione che utilizzi modelli di machine learning. Per garantire che i risultati del modello possano essere considerati affidabili e considerati equi, è fondamentale riconoscerli e affrontarli machine learning pregiudizio.
È correlato a domande sulla spiegabilità del modello o su quanto sia facile per una persona capire come un modello di apprendimento automatico sia arrivato a una conclusione. Le tendenze e i modelli che i modelli di apprendimento automatico mappano e apprendono provengono dai dati stessi piuttosto che dallo sviluppo umano diretto.
La distorsione nell'apprendimento automatico può emergere per una serie di motivi se non viene controllata e verificata. Quando un modello viene distribuito, incontra spesso situazioni che non si riflettono esattamente nell'esempio di dati di addestramento.
Il modello avrebbe potuto essere sovradimensionato per questo set di dati di addestramento non rappresentativo. Nonostante l'eccellente qualità dei dati di addestramento, il modello potrebbe essere ancora influenzato da bias storici derivanti da influenze culturali più ampie.
Una volta implementato, un modello distorto potrebbe favorire determinati gruppi o perdere accuratezza con particolari sottoinsiemi di dati. Ciò potrebbe comportare giudizi che puniscono ingiustamente un determinato gruppo di individui, che potrebbero avere effetti negativi sul mondo reale.
Questo articolo discute il pregiudizio dell'apprendimento automatico, incluso di cosa si tratta, come individuarlo, i pericoli che rappresenta e molto altro.
Quindi, cos'è il bias di apprendimento automatico?
Un algoritmo che produce output che sono sistematicamente distorti a causa di false ipotesi fatte durante il processo di apprendimento automatico è noto come bias di apprendimento automatico, noto anche come bias dell'algoritmo o noto come bias dell'IA.
Il bias di apprendimento automatico è la tendenza di un modello a favorire un particolare insieme di dati o un sottoinsieme di dati; è spesso causato da set di dati di addestramento non rappresentativi. Con una certa raccolta di dati, un modello distorto avrà prestazioni inferiori, il che ne danneggerà l'accuratezza.
In un ambiente reale, ciò può implicare che i dati di allenamento distorti abbiano portato l'output di un modello a favore di una determinata razza, demografia o genere.
Di conseguenza, i risultati dell'apprendimento automatico potrebbero essere ingiusti o discriminatori. Formazione non rappresentativa i set di dati possono contribuire alla distorsione nell'apprendimento automatico.
Il modello risultante può essere sbilanciato verso altre categorie sottorappresentate se i dati di addestramento sono carenti o eccessivamente rappresentativi di un particolare raggruppamento di dati. Ciò può verificarsi se l'esempio di dati di addestramento non corrisponde esattamente all'ambiente di distribuzione del mondo reale.
L'apprendimento automatico nel settore sanitario, che può essere utilizzato per controllare i dati dei pazienti rispetto a malattie o malattie note, è un ottimo esempio. I modelli possono accelerare gli interventi dei medici quando vengono utilizzati in modo appropriato.
Tuttavia, il pregiudizio è possibile. Quando viene chiesto di prevedere una possibile malattia in un paziente più anziano, un modello non può funzionare bene se i dati di addestramento utilizzati per costruirlo sono costituiti principalmente da dati di pazienti di una fascia di età più piccola.
Inoltre, le statistiche storiche possono essere distorte. Ad esempio, poiché storicamente la maggior parte dei dipendenti erano uomini, un modello addestrato per filtrare i candidati al lavoro favorirebbe i candidati di sesso maschile.
La distorsione dell'apprendimento automatico avrà un'influenza sull'accuratezza del modello in entrambi gli scenari e, nelle circostanze peggiori, potrebbe anche portare a conclusioni discriminanti e ingiuste.
Le decisioni devono essere riesaminate attentamente per garantire che non vi siano pregiudizi come modelli di apprendimento automatico sostituire sempre più operazioni manuali. Di conseguenza, le pratiche di governance del modello in qualsiasi organizzazione dovrebbero includere il monitoraggio della distorsione dell'apprendimento automatico.
Molti diversi tipi di lavoro in molti settori diversi vengono completati da modelli di apprendimento automatico. Oggi i modelli vengono utilizzati per automatizzare processi sempre più difficili e per generare suggerimenti. In questo processo decisionale, bias significa che un modello potrebbe favorire un particolare gruppo rispetto a un altro sulla base di un pregiudizio appreso.
Se utilizzato per formulare giudizi non sicuri con effettive conseguenze, ciò può avere gravi ripercussioni. Se utilizzato per approvare automaticamente le richieste di prestito, ad esempio, un modello parziale può pregiudicare una determinata popolazione. Nelle imprese regolamentate in cui qualsiasi azione può essere ispezionata o esaminata, questo è un fattore particolarmente cruciale da tenere in considerazione.
Tipi di bias di apprendimento automatico
- Bias dell'algoritmo – Ciò accade quando è presente un bug nell'algoritmo che esegue i calcoli che guidano i calcoli di machine learning.
- Esempio di distorsione – Quando i dati utilizzati per addestrare l'apprendimento automatico modello ha un problema, questo si verifica. In caso di questo tipo di distorsione, la quantità o la qualità dei dati utilizzati per addestrare il sistema è insufficiente. L'algoritmo verrà addestrato a credere che tutti gli insegnanti siano donne se, ad esempio, i dati di formazione sono interamente costituiti da insegnanti donne.
- Bias di esclusione – Ciò si verifica quando un punto dati cruciale è assente dall'insieme di dati utilizzato, il che potrebbe verificarsi se i modellatori non riescono a realizzare il significato del punto dati mancante.
- Pregiudizio pregiudiziale – In questo caso, l'apprendimento automatico stesso è distorto poiché i dati utilizzati per addestrare il sistema riflettono pregiudizi del mondo reale come pregiudizi, stereotipi e ipotesi sociali errate. Ad esempio, se i dati sui professionisti sanitari dovessero essere inclusi nel sistema informatico che include solo medici maschi e infermiere, si perpetuerebbe uno stereotipo di genere reale sugli operatori sanitari.
- Bias di misurazione – Come suggerisce il nome, questo pregiudizio deriva da questioni fondamentali con la qualità dei dati e i metodi utilizzati per raccoglierli o valutarli. Un sistema formato per valutare con precisione il peso sarà distorto se i pesi contenuti nei dati di formazione sono stati costantemente arrotondati e l'utilizzo di immagini di dipendenti contenti per addestrare un sistema inteso a valutare un ambiente di lavoro può essere distorto se i dipendenti nelle immagini lo sapessero venivano misurati per la felicità.
Quali fattori contribuiscono alla distorsione nell'apprendimento automatico?
Sebbene ci siano molte ragioni per la distorsione dell'apprendimento automatico, spesso deriva da errori nei dati di addestramento stessi. Esistono diverse potenziali cause alla base dei pregiudizi nei dati di addestramento.
L'illustrazione più evidente sono i dati di addestramento, che sono un sottoinsieme di condizioni viste in un sistema distribuito che non è tipico. Potrebbe trattarsi di dati di addestramento con una sottorappresentazione di una categoria o una quantità sproporzionata di un'altra.
Questo è noto come bias del campione e può derivare da una raccolta di dati di addestramento non randomizzati. I metodi utilizzati per raccogliere, analizzare o classificare i dati, così come le radici storiche dei dati, possono portare a errori nei dati stessi.
Le informazioni possono anche essere storicamente distorte nella cultura più ampia in cui sono state raccolte.
La distorsione dell'apprendimento automatico è principalmente causata da:
- I pregiudizi causati dall'uomo o dalla società nei dati storici vengono utilizzati per addestrare gli algoritmi.
- Dati di allenamento che non riflettono le circostanze del mondo reale.
- Distorsioni durante l'etichettatura o la preparazione dei dati per l'apprendimento automatico supervisionato.
Ad esempio, una mancanza di diversità nei dati di addestramento potrebbe causare pregiudizi di rappresentazione. L'accuratezza dei modelli di apprendimento automatico è spesso influenzata da pregiudizi storici nella cultura più ampia.
Questo è a volte indicato come pregiudizio sociale o umano. Trovare vaste raccolte di dati che non sono soggette a pregiudizi sociali può essere difficile. La fase di elaborazione dei dati del ciclo di vita dell'apprendimento automatico è ugualmente suscettibile ai pregiudizi umani.
I dati che sono stati etichettati ed elaborati da un data scientist o da un altro esperto sono necessari per l'apprendimento automatico supervisionato. Indipendentemente dal fatto che derivi dalla varietà di dati che vengono puliti, dal modo in cui i punti dati vengono etichettati o dalla scelta delle funzionalità, la distorsione in questo processo di etichettatura può portare a errori nell'apprendimento automatico.
Rischi di bias di apprendimento automatico
Poiché i modelli sono strumenti decisionali basati sui dati, si presume che forniscano giudizi imparziali. I modelli di machine learning spesso contengono bias, che possono influire sui risultati.
Sempre più industrie stanno implementando l'apprendimento automatico al posto di software e procedure obsoleti. I modelli distorti possono avere effetti negativi nel mondo reale quando i lavori più complicati vengono automatizzati utilizzando i modelli.
L'apprendimento automatico non è diverso dagli altri processi decisionali in quanto le organizzazioni e gli individui si aspettano che sia trasparente ed equo. Poiché l'apprendimento automatico è un processo automatizzato, i giudizi espressi utilizzandolo vengono occasionalmente esaminati ancora più da vicino.
È fondamentale che le organizzazioni siano proattive nell'affrontare i pericoli poiché i pregiudizi nell'apprendimento automatico possono spesso avere effetti discriminatori o negativi su alcune popolazioni. Per i contesti regolamentati, in particolare, deve essere presa in considerazione la possibilità di bias nell'apprendimento automatico.
Ad esempio, l'apprendimento automatico nel settore bancario potrebbe essere utilizzato per accettare o rifiutare automaticamente i richiedenti un mutuo dopo lo screening iniziale. Un modello orientato verso un determinato gruppo di candidati potrebbe avere effetti dannosi sia sul candidato che sull'organizzazione.
Qualsiasi pregiudizio riscontrato in un ambiente di distribuzione in cui le azioni possono essere esaminate potrebbe causare gravi problemi. Il modello potrebbe non funzionare e, negli scenari peggiori, potrebbe anche rivelarsi deliberatamente discriminatorio.
La distorsione deve essere attentamente valutata e preparata poiché potrebbe comportare la rimozione completa del modello dalla distribuzione. Per acquisire fiducia nelle decisioni sui modelli è necessario comprendere e affrontare i pregiudizi dell'apprendimento automatico.
Il livello di fiducia all'interno dell'organizzazione e tra i consumatori di servizi esterni potrebbe essere influenzato dal pregiudizio percepito nel processo decisionale del modello. Se i modelli non sono affidabili, soprattutto quando si guidano scelte ad alto rischio, non verranno utilizzati al massimo delle loro potenzialità all'interno di un'organizzazione.
Quando si valuta la spiegabilità di un modello, tenere conto delle distorsioni dovrebbe essere un fattore da tenere in considerazione. La validità e l'accuratezza delle scelte del modello possono essere seriamente influenzate da pregiudizi di apprendimento automatico non controllati.
Occasionalmente può risultare in azioni discriminatorie che potrebbero interessare particolari persone o gruppi. Esistono numerose applicazioni per vari tipi di modelli di apprendimento automatico e ciascuna è soggetta in una certa misura a pregiudizi di apprendimento automatico.
La distorsione dell'apprendimento automatico è illustrata da:
- A causa dell'assenza di varietà nei dati di addestramento, gli algoritmi di riconoscimento facciale possono essere meno accurati per alcuni gruppi razziali.
- Il programma potrebbe rilevare pregiudizi razziali e di genere nei dati dovuti a pregiudizi umani o storici.
- Con un certo dialetto o accento, l'elaborazione del linguaggio naturale potrebbe essere più accurata e potrebbe non essere in grado di elaborare un accento sottorappresentato nei dati di addestramento.
Risolvere i pregiudizi nell'apprendimento automatico
Il monitoraggio e la riqualificazione dei modelli quando viene rilevata la distorsione sono due modi per affrontare la distorsione dell'apprendimento automatico. Nella maggior parte dei casi, la distorsione del modello è un'indicazione della distorsione nei dati di addestramento, o almeno la distorsione può essere correlata alla fase di addestramento del ciclo di vita dell'apprendimento automatico.
Ogni fase del ciclo di vita del modello dovrebbe avere procedure in atto per rilevare la distorsione o la deriva del modello. Sono inclusi anche i processi per il monitoraggio dell'apprendimento automatico dopo la distribuzione. È importante controllare frequentemente il modello e i set di dati per individuare eventuali distorsioni.
Ciò potrebbe comportare l'esame di un set di dati di formazione per vedere come i gruppi sono distribuiti e rappresentati lì. È possibile modificare e/o migliorare dataset non del tutto rappresentativi.
Inoltre, la distorsione dovrebbe essere considerata durante la valutazione delle prestazioni del modello. Testare le prestazioni del modello su diversi sottoinsiemi di dati può mostrare se è distorto o overfitted rispetto a un determinato gruppo.
È possibile valutare le prestazioni del modello di apprendimento automatico su determinati sottoinsiemi di dati utilizzando tecniche di convalida incrociata. La procedura prevede la divisione dei dati in distinti set di dati di addestramento e test.
Puoi eliminare i pregiudizi nell'apprendimento automatico:
- Se necessario, riqualificare il modello utilizzando set di addestramento più grandi e rappresentativi.
- Stabilire una procedura per cercare proattivamente risultati distorti e giudizi insoliti.
- Ripesare le funzionalità e regolare gli iperparametri secondo necessità può aiutare a tenere conto della distorsione.
- Incoraggiare la risoluzione dei bias scoperti attraverso un ciclo continuo di rilevamento e ottimizzazione.
Conclusione
Si è tentati di credere che una volta addestrato, un modello di apprendimento automatico funzionerebbe in modo autonomo. In effetti, l'ambiente operativo del modello è in continua evoluzione e i gestori devono riqualificare i modelli utilizzando regolarmente nuovi set di dati.
L'apprendimento automatico è attualmente una delle capacità tecnologiche più affascinanti con vantaggi economici reali. L'apprendimento automatico, se abbinato alle tecnologie dei big data e all'immensa potenza di calcolo disponibile attraverso il cloud pubblico, ha il potenziale per trasformare il modo in cui le persone interagiscono con la tecnologia e forse interi settori.
Tuttavia, per quanto promettente sia la tecnologia di apprendimento automatico, deve essere pianificata attentamente per evitare pregiudizi non intenzionali. L'efficacia dei giudizi espressi dalle macchine può essere gravemente influenzata dal pregiudizio, che è qualcosa di cui gli sviluppatori di modelli di apprendimento automatico devono tenere conto.
Lascia un Commento