Tudo sobre ChatGPT
![Imagem: Wikipedia / Divulgação Google logo](https://img.odcdn.com.br/wp-content/uploads/2023/01/google-logo.jpg)
Tudo sobre Google
![Imagem: sdecoret/Shutterstock Inteligência artificial](https://img.odcdn.com.br/wp-content/uploads/2023/02/inteligencia-artificial.jpg)
Tudo sobre Inteligência Artificial
![Imagem: Wikipedia / Divulgação OpenAI Logo](https://img.odcdn.com.br/wp-content/uploads/2023/02/OpenAI-logo.jpg)
Tudo sobre OpenAI
Pesquisadores descobriram que chatbots podem ser usados para detectar “alucinações” de outros modelos de IA generativa. No estudo publicado recentemente na revista Nature, a equipe explica que sistemas como o ChatGPT, da OpenAI, e o Gemini, do Google, podem ajudar a encontrar e corrigir respostas imprecisas fornecidas por outros chatbots.
Entenda:
- Pesquisadores de Oxford descobriram que chatbots como ChatGPT e Gemini podem ser usados para detectar “alucinações” de outros modelos de IA generativa;
- A equipe fez uma série de perguntas a um chatbot e, em seguida, avaliou as respostas em um outro modelo em busca de inconsistências;
- As perguntas também passaram por avaliadores humanos para determinar a confiabilidade das comparações entre os chatbots;
- Os modelos de IA concordaram com as resoluções dos humanos em 93% dos casos;
- A equipe destaca que as alucinações e respostas imprecisas dos chatbots ajudam a dificultar a adoção generalizada dos sistemas – especialmente em áreas como a medicina;
- O estudo foi publicado na revista Nature.
![](https://img.odcdn.com.br/wp-content/uploads/2024/05/ChatGPT-1-1-1024x576.jpg)
Para o estudo, Sebastian Farquhar, cientista da computação da Universidade de Oxford, no Reino Unido, e sua equipe fizeram uma série de questionamentos comuns a um chatbot – problemas matemáticos do ensino fundamental, por exemplo. Um segundo modelo foi usado para revisar as respostas geradas em busca de inconsistências e distorções.
Chatbots ajudam a corrigir alucinações de IA
As perguntas feitas aos chatbots também passaram por avaliadores humanos. Como explicam os investigadores no artigo, a IA concordou com as resoluções dos humanos em 93% dos casos, e os avaliadores humanos concordaram entre si em 92% das vezes. O resultado ajudou a equipe a determinar a confiabilidade da comparação das respostas dos diferentes chatbots.
![Celular com logotipo do Gemini colocado sobre teclado de notebook](https://img.odcdn.com.br/wp-content/uploads/2023/12/Destaque-Google-Gemini-IA-1024x576.jpg)
Ao The Washington Post, Farquhar explica que, para o leitor médio, é “muito difícil” identificar alguns erros da IA, já que os chatbots “muitas vezes dizem o que você quer ouvir, inventando coisas que não são apenas plausíveis, mas que seriam úteis se fossem verdadeiras, algo que os pesquisadores rotularam de ‘bajulação’.”
A equipe ainda diz que as alucinações da IA generativa ajudam a criar uma barreira que impede a adoção generalizada dos sistemas – principalmente em áreas como a medicina, onde “poderiam representar um risco para a vida humana.”