Há três anos, visitei uma exposição de arte bastante interessante. “Machine Memoirs” de Refik Anadol despertou meu interesse desde o início.
Ele é um nome popular entre aqueles que estão interessados na interseção entre arte e IA. Mas não se preocupe, este blog não é sobre arte. Iremos nos aprofundar nas “percepções” profundas da IA.
Nesta exposição, Anadol estava experimentando Imagens de exploração espacial da NASA. A exposição foi inspirada na ideia de que os telescópios poderiam “sonhar” utilizando os seus arquivos visuais, esbatendo as barreiras entre o facto e a imaginação.
Ao investigar as relações entre dados, memória e história numa escala cósmica, Anadol pedia-nos que considerássemos o potencial de inteligência artificial observar e compreender o mundo que nos rodeia. E até a IA terá seus próprios sonhos…
Então, por que isso é relevante para nós?
Considere o seguinte: por mais que Anadol tenha investigado o conceito de telescópios sonhando a partir de seus dados, os sistemas de IA têm seu próprio tipo de sonho – ou melhor, alucinações – dentro de seus bancos de memória digital.
Estas alucinações, tal como as visualizações na exposição de Anadol, podem ajudar-nos a aprender mais sobre dados, IA e os seus limites.
O que exatamente são alucinações de IA?
Quando um grande modelo de linguagem, como um chatbot generativo de IA, produz resultados com padrões que são inexistentes ou invisíveis para observadores humanos, chamamos isso de “Alucinações de IA."
Esses resultados, que diferem da resposta esperada com base nas informações fornecidas à IA, podem ser completamente errôneos ou absurdos.
No contexto dos computadores, o termo “alucinação” pode parecer incomum, mas descreve com precisão o caráter bizarro desses resultados incorretos. As alucinações de IA são causadas por uma série de variáveis, incluindo overfitting, preconceitos nos dados de treinamento e a complexidade do modelo de IA.
Para entender melhor, isso é conceitualmente semelhante à forma como os humanos veem formas nas nuvens ou rostos na lua.
Um exemplo:
Neste exemplo, fiz uma pergunta muito fácil para ChatGPT. Eu deveria receber uma resposta como: “O autor da série de livros Duna é Frank Herbert”.
Por que isso acontece?
Apesar de terem sido construídos para escrever conteúdo coerente e fluido, grandes modelos de linguagem são, na verdade, incapazes de compreender o que estão dizendo. Isto é muito crítico para determinar a credibilidade do conteúdo gerado por IA.
Embora esses modelos possam gerar reações que imitam o comportamento humano, eles não têm consciência contextual e habilidades de pensamento crítico que sustentam a inteligência real.
Como resultado, os resultados gerados pela IA correm o risco de serem enganosos ou errados, uma vez que favorecem a correspondência de padrões em detrimento da correcção factual.
Quais poderiam ser alguns outros casos de alucinações?
Desinformação perigosa: Digamos que um chatbot de IA generativo fabrique provas e testemunhos para acusar falsamente uma figura pública de conduta criminosa. Estas informações enganosas têm o potencial de prejudicar a reputação da pessoa e causar retaliações injustificadas.
Respostas estranhas ou assustadoras: Para dar um exemplo engraçado, imagine um chatbot fazendo uma pergunta sobre o clima ao usuário e respondendo com uma previsão que diz que choverá cães e gatos, junto com fotos de gotas de chuva que parecem cães e gatos. Mesmo sendo engraçados, isso ainda seria uma “alucinação”.
Imprecisões factuais: Suponha que um chatbot baseado em modelo de linguagem afirme falsamente que a Grande Muralha da China pode ser vista do espaço, sem explicar que só é visível sob condições específicas. Embora a observação possa parecer plausível para alguns, é imprecisa e pode enganar as pessoas sobre a visão da parede do espaço.
Como você evita alucinações de IA como usuário?
Faça solicitações explícitas
Você precisa se comunicar explicitamente com os modelos de IA.
Pense em seus objetivos e crie suas instruções antes de escrever.
Por exemplo, dê instruções específicas como “Explique como a Internet funciona e escreva um parágrafo sobre a sua importância na sociedade moderna” em vez de fazer uma pergunta geral como “Fale-me sobre a Internet”.
A explicitação ajuda o modelo de IA a interpretar sua intenção.
Exemplo: faça perguntas à IA como estas:
“O que é computação em nuvem e como funciona?”
“Explique o impacto do desvio de dados no desempenho do modelo.”
“Discuta o impacto e o futuro potencial da tecnologia VR nos negócios de TI.”
Abrace o poder do exemplo
Fornecer exemplos em seus prompts ajuda os modelos de IA a compreender o contexto e gerar respostas precisas. Esteja você procurando insights históricos ou explicações técnicas, fornecer exemplos pode ajudar a melhorar a precisão do conteúdo gerado por IA.
Por exemplo, você pode dizer: “Mencione romances de fantasia como Harry Potter”.
Divida tarefas complexas
Prompts complexos sobrecarregam os algoritmos de IA e podem levar a resultados irrelevantes. Para evitar isso, divida as atividades complexas em partes menores e mais gerenciáveis. Ao organizar seus prompts sequencialmente, você permite que a IA se concentre em cada componente de forma independente, resultando em respostas mais lógicas.
Por exemplo, em vez de pedir à IA para “explicar o processo de criação de um rede neural" em uma única consulta, divida a tarefa em fases distintas, como definição do problema e coleta de dados.
Valide os resultados e forneça feedback
Verifique sempre os resultados produzidos pelos modelos de IA, especialmente para atividades cruciais ou baseadas em fatos. Compare as respostas com fontes confiáveis e anote quaisquer diferenças ou erros.
Forneça informações ao sistema de IA para melhorar o desempenho futuro e reduzir as alucinações.
Estratégias para desenvolvedores evitarem alucinações de IA
Implementar geração aumentada de recuperação (RAG).
Integrar técnicas de geração aumentada de recuperação em sistemas de IA para basear respostas em fatos factuais de bancos de dados confiáveis.
A geração aumentada de recuperação (RAG) combina a geração de linguagem natural padrão com a capacidade de obter e incorporar informações relevantes de uma enorme base de conhecimento, resultando em resultados mais contextualmente ricos.
Ao mesclar conteúdo gerado por IA com fontes de dados validadas, você pode melhorar a confiabilidade e a confiabilidade dos resultados de IA.
Valide e monitore resultados de IA continuamente
Configure procedimentos de validação rigorosos para verificar a exatidão e a consistência dos resultados de IA em tempo real. Monitore atentamente o desempenho da IA, procure possíveis alucinações ou erros e repita o treinamento do modelo e a otimização imediata para aumentar a confiabilidade ao longo do tempo.
Por exemplo, utilize rotinas de validação automatizadas para verificar a exatidão factual do conteúdo gerado pela IA e destacar casos de possíveis alucinações para avaliação manual.
Verifique se há desvios de dados
A deriva de dados é um fenômeno no qual as características estatísticas dos dados usados para treinar um modelo de IA variam com o tempo. Se o modelo de IA encontrar dados que diferem consideravelmente dos seus dados de treino durante a inferência, pode fornecer resultados falsos ou ilógicos, resultando em alucinações.
Por exemplo, se um modelo de IA for treinado com base em dados passados que já não são relevantes ou indicativos do ambiente atual, poderá tirar conclusões ou previsões incorretas.
Como resultado, monitorar e resolver desvios de dados é fundamental para garantir o desempenho e a confiabilidade do sistema de IA, ao mesmo tempo que reduz a possibilidade de alucinações.
Conclusão
De acordo com a IBM Data, as alucinações de IA ocorrem em cerca de 3% a 10% das respostas dos modelos de IA.
Então, de uma forma ou de outra, você provavelmente também os observará. Acredito que este seja um tópico extremamente interessante porque é um lembrete fascinante do caminho contínuo para melhorar as capacidades da IA.
Podemos observar e experimentar a confiabilidade da IA, as complexidades do processamento de dados e as interações humano-IA.
Deixe um comentário