Como podemos garantir que usamos a IA com responsabilidade?
Os avanços no aprendizado de máquina mostram que os modelos podem escalar rapidamente e impactar uma grande parte da sociedade.
Algoritmos controlam o feed de notícias nos telefones de todos. Governos e corporações estão começando a usar a IA para tomar decisões informadas por dados.
À medida que a IA se torna mais arraigada na forma como o mundo opera, como podemos garantir que a IA esteja agindo de forma justa?
Neste artigo, analisaremos os desafios éticos do uso da IA e veremos o que podemos fazer para garantir o uso responsável da IA.
O que é IA Ética?
A IA ética refere-se à inteligência artificial que adere a um determinado conjunto de diretrizes éticas.
Em outras palavras, é uma maneira de indivíduos e organizações trabalharem com IA de maneira responsável.
Nos últimos anos, as empresas começaram a cumprir as leis de privacidade de dados depois que evidências de abuso e violação vieram à tona. Da mesma forma, diretrizes para IA ética são recomendadas para garantir que a IA não afete negativamente a sociedade.
Por exemplo, alguns tipos de IA funcionam de maneira tendenciosa ou perpetuam preconceitos já existentes. Vamos considerar um algoritmo que ajuda os recrutadores a classificar milhares de currículos. Se o algoritmo for treinado em um conjunto de dados com funcionários predominantemente masculinos ou brancos, é possível que o algoritmo favoreça os candidatos que se enquadram nessas categorias.
Estabelecendo Princípios para a IA Ética
Pensamos em estabelecer um conjunto de regras para impor inteligência artificial por décadas.
Mesmo na década de 1940, quando os computadores mais poderosos só podiam fazer os cálculos científicos mais especializados, os escritores de ficção científica refletiram sobre a ideia de controlar robôs inteligentes.
Isaac Asimov cunhou as Três Leis da Robótica, que ele propôs que fossem incorporadas à programação de robôs em seus contos como um recurso de segurança.
Essas leis se tornaram uma pedra de toque para muitas histórias futuras de ficção científica e até informaram estudos reais sobre a ética da IA.
Na pesquisa contemporânea, os pesquisadores de IA estão analisando fontes mais fundamentadas para estabelecer uma lista de princípios para a IA ética.
Como a IA acabará por afetar as vidas humanas, devemos ter uma compreensão fundamental do que devemos e não devemos fazer.
O Relatório Belmont
Como ponto de referência, os pesquisadores de ética consideram o Relatório Belmont como um guia. o Relatório Belmont foi um documento publicado pelos Institutos Nacionais de Saúde dos Estados Unidos em 1979. As atrocidades biomédicas cometidas na Segunda Guerra Mundial levaram a um esforço para legislar diretrizes éticas para pesquisadores que praticam a medicina.
Aqui estão os três princípios fundamentais mencionados no relatório:
- Respeito pelas pessoas
- Beneficência
- Justiça
O primeiro principal visa defender a dignidade e a autonomia de todos os sujeitos humanos. Por exemplo, os pesquisadores devem minimizar o engano dos participantes e devem exigir que cada pessoa dê seu consentimento explícito.
O segundo princípio, beneficência, concentra-se no dever do pesquisador de minimizar possíveis danos aos participantes. Este princípio dá aos pesquisadores o dever de equilibrar a proporção de riscos individuais para potenciais benefícios sociais.
Justiça, o princípio final estabelecido pelo Relatório Belmont, concentra-se na distribuição igualitária de riscos e benefícios entre os grupos que poderiam se beneficiar da pesquisa. Os pesquisadores têm o dever de selecionar sujeitos de pesquisa da população mais ampla. Fazer isso minimizaria os preconceitos individuais e sistêmicos que poderiam afetar negativamente a sociedade.
Colocando a ética na pesquisa de IA
Embora o Relatório Belmont tenha como alvo principal pesquisas envolvendo seres humanos, os princípios eram amplos o suficiente para serem aplicados ao campo da ética da IA.
Big Data tornou-se um recurso valioso no campo da inteligência artificial. Os processos que determinam como os pesquisadores coletam dados devem seguir diretrizes éticas.
A implementação de leis de privacidade de dados na maioria dos países limita um pouco os dados que as empresas podem coletar e usar. No entanto, a maioria das nações ainda possui um conjunto rudimentar de leis para impedir o uso de IA para causar danos.
Como trabalhar com IA de forma ética
Aqui estão alguns conceitos-chave que podem ajudar a trabalhar em direção a um uso mais ético e responsável da IA.
Controle para viés
A inteligência artificial não é inerentemente neutra. Os algoritmos são sempre suscetíveis a viés e discriminação inseridos porque os dados com os quais ele aprende incluem viés.
Um exemplo comum de IA discriminatória é o tipo que aparece com frequência em sistemas de reconhecimento facial. Esses modelos geralmente conseguem identificar rostos masculinos brancos, mas são menos bem-sucedidos em reconhecer pessoas com pele mais escura.
Outro exemplo aparece no DALL-E 2 da OpenAI. Os usuários têm descoberto que certos prompts muitas vezes reproduzem preconceitos de gênero e raça que o modelo captou em seu conjunto de dados de imagens online.
Por exemplo, ao receber um prompt para imagens de advogados, DALL-E 2 retorna imagens de advogados do sexo masculino. Por outro lado, a solicitação de fotos de comissários de bordo retorna principalmente mulheres.
Embora possa ser impossível remover completamente o viés dos sistemas de IA, podemos tomar medidas para minimizar seus efeitos. Pesquisadores e engenheiros podem obter maior controle do viés entendendo os dados de treinamento e contratando uma equipe diversificada para oferecer informações sobre como o sistema de IA deve funcionar.
Abordagem de design centrada no ser humano
Algoritmos em seu aplicativo favorito podem afetá-lo negativamente.
Plataformas como Facebook e TikTok são capazes de aprender qual conteúdo servir para manter os usuários em suas plataformas.
Mesmo sem a intenção de causar danos, o objetivo de manter os usuários grudados no aplicativo pelo maior tempo possível pode levar a problemas de saúde mental. O termo 'doomscrolling' ganhou popularidade como o termo genérico para gastar muito tempo lendo notícias negativas em plataformas como Twitter e Facebook.
Em outros casos, conteúdo odioso e desinformação recebem uma plataforma mais ampla porque ajuda a aumentar o engajamento do usuário. UMA Estudo 2021 de pesquisadores da Universidade de Nova York mostra que postagens de fontes conhecidas por desinformação recebem seis vezes mais curtidas do que fontes de notícias respeitáveis.
Esses algoritmos carecem de uma abordagem de design centrada no ser humano. Os engenheiros que estão projetando como uma IA executa uma ação devem sempre manter a experiência do usuário em mente.
Pesquisadores e engenheiros devem sempre fazer a pergunta: 'como isso beneficia o usuário?'
A maioria dos modelos de IA segue um modelo de caixa preta. Uma caixa preta em aprendizado de máquina refere-se a uma IA em que nenhum humano pode explicar por que a IA chegou a um resultado específico.
As caixas pretas são problemáticas porque diminuem a quantidade de confiança que podemos depositar nas máquinas.
Por exemplo, vamos imaginar um cenário em que o Facebook lançou um algoritmo que ajudou os governos a rastrear criminosos. Se o sistema de IA sinalizar você, ninguém poderá explicar por que ele tomou essa decisão. Este tipo de sistema não deve ser a única razão pela qual você deve ser preso.
O Explainable AI ou XAI deve retornar uma lista de fatores que contribuíram para o resultado final. Voltando ao nosso hipotético rastreador criminal, podemos ajustar o sistema de IA para retornar uma lista de postagens mostrando linguagem ou termos suspeitos. A partir daí, um humano pode verificar se vale a pena investigar o usuário sinalizado ou não.
O XAI fornece mais transparência e confiança nos sistemas de IA e pode ajudar os humanos a tomar melhores decisões.
Conclusão
Como todas as invenções feitas pelo homem, a inteligência artificial não é inerentemente boa ou ruim. É a maneira como usamos a IA que importa.
O que é único na inteligência artificial é o ritmo em que ela está crescendo. Nos últimos cinco anos, vimos descobertas novas e empolgantes no campo do aprendizado de máquina todos os dias.
No entanto, a lei não é tão rápida. À medida que corporações e governos continuam a alavancar a IA para maximizar os lucros ou assumir o controle dos cidadãos, devemos encontrar maneiras de pressionar por transparência e equidade no uso desses algoritmos.
Você acha que a IA verdadeiramente ética é possível?
Deixe um comentário