Desde que passou a ser disponibilizado no WhatsApp, o chatbot de inteligência artificial (IA) da Meta, apresentou algumas respostas erradas aos usuários. O fenômeno, intitulado de alucinação ou alucinação artificial, fez com que diversos internautas criticassem o serviço nas redes sociais.
Procurada pela CNN, a big tech afirmou que, ao anunciar a nova tecnologia, já havia explicado que ela não seria perfeita, mas que está comprometida em aprimorar a sua funcionalidade.
Mas afinal, o que é alucinação artificial?
À CNN, Bruno Kawakami, especialista em segurança digital e IA, explica que o fenômeno diz respeito a uma falha estática apresentada para determinado tema ou execução. “Assim, ela direciona a resposta para invenções desconexas achando que aquela seria a melhor resposta possível. Essa falha faz com que a IA invente informações irreais”.
Já a cientista da computação Nina da Hora, nome por trás do Instituto da Hora, conta que o episódio é um dos principais desafios enfrentados por sistemas de IA. “Especialmente em tarefas que envolvem linguagem natural, como a geração de texto, onde a IA pode oferecer uma resposta que, aparentemente, é válida e lógica, mas, na verdade, não está fundamentada em nenhuma realidade factual”, acrescenta.
O que há por trás dos dados incorretos da IA?
Segundo Nina, há uma série de motivações para a IA “alucinar”, apresentando retornos errados, como:
- Limitações de Treinamento: A IA é treinada em vastos volumes de texto, e a forma como ela “aprende” a gerar respostas não envolve entender o mundo ou verificar a verdade, mas sim reconhecer padrões em dados e prever a sequência mais provável de palavras. Isso significa que ela pode “parecer” confiante em sua resposta, mesmo que seja completamente inventada;
- Ausência de Compreensão Real: Modelos de IA como o ChatGPT não têm compreensão real dos fatos; eles são projetados para prever a próxima palavra em uma sequência com base em padrões aprendidos, e não para verificar a veracidade ou realizar uma análise lógica profunda;
- Falta de Verificação de Fatos: A IA não possui mecanismos embutidos para verificar a precisão de suas respostas. Ela não “checa” dados de uma fonte externa ao gerar uma resposta; por isso, mesmo quando parece estar fornecendo uma resposta bem fundamentada, ela pode estar errada;
- Dados de Treinamento Contaminados: O modelo é treinado em dados retirados de várias fontes da internet, que podem conter informações incorretas, tendenciosas ou especulativas. A IA pode acabar replicando ou amplificando esses erros em suas respostas;
- Interpretação de Perguntas Complexas: A IA pode interpretar incorretamente perguntas ambíguas, gerando respostas que não condizem com o contexto ou o significado pretendido pelo usuário;
Os profissionais também afirmam que o acúmulo de informações registradas também potencializa o fenômeno. “A IA pode aprender com dados errados, se enviesar ou generalizar. Portanto, processar informações para a IA e achar o equilibro probabilístico, assim como categorizar corretamente informações erradas e corretas, é essencial para mitigarmos esse tipo de problema”, afirma Kawakami.
Alucinações artificiais são comuns
Apesar das consequências negativas que a alucinação pode gerar, o fenômeno é relativamente comum, especialmente em modelos de linguagem que lidam com a geração de texto complexo, explica Nina.
“Embora os avanços na área tenham reduzido a frequência desse tipo de erro, ele ainda ocorre, principalmente em contextos que exigem precisão factual, como consultas médicas, históricas ou jurídicas”.
“São muitos dados processados e aprendidos pelas IAs, assim como são muitas as probabilidades de respostas, o que dificulta avaliarmos, monitorarmos e compreendermos todas as alternativas”, adiciona Bruno.
As cautelas necessárias para mitigar erros ao uso da IA
Ainda que as dicas pareçam clichês, é necessário ter o radar sempre ligado para diminuir os erros associados ao uso de IA, incluindo:
- Verificação Independente: Sempre que possível, as respostas geradas por IA devem ser verificadas por uma fonte confiável, especialmente em contextos onde erros podem ter consequências significativas (como na saúde, finanças ou decisões legais);
- Compreensão das Limitações: É importante reconhecer que a IA não “compreende” o mundo como humanos fazem e não tem mecanismos internos para verificar a verdade. Suas respostas são baseadas em padrões linguísticos, não em fatos confirmados;
- Manter a Contextualização: Fornecer à IA um contexto claro e específico ao fazer perguntas pode ajudar a reduzir o risco de respostas alucinatórias, embora não elimine o risco.
Veja como trancar conversas no WhatsApp para ter mais privacidade