Tudo sobre ChatGPT
Os esforços da OpenAI para diminuir a produção de resultados falsos do seu chatbot, o ChatGPT, não são suficientes para se adequar totalmente com as regras de dados da União Europeia, conforme declarado por um Conselho responsável pela proteção e privacidade de dados na Europa. As informações são da Reuters.
“Embora as medidas tomadas para cumprir o princípio da transparência sejam benéficas para evitar interpretações errôneas dos resultados do ChatGPT, elas não são suficientes para cumprir o princípio da precisão dos dados”, disse a força-tarefa do Conselho em um relatório divulgado em seu site nesta sexta-feira (24).
O órgão que une os vigilantes nacionais da privacidade da Europa criou a força-tarefa do ChatGPT no ano passado, depois que reguladores nacionais, liderados por autoridades italianas, levantaram preocupações sobre os riscos que o chatbot de inteligência artificial da OpenAI, cada vez mais utilizado, podem representar.
Procurada pela Reuters para comentar o assunto, a OpenAI não respondeu aos contatos imediatamente.
ChatGPT: um risco à privacidade?
- Várias das investigações lançadas pelos órgãos nacionais de vigilância da privacidade em alguns Estados-membros da União Europeia continuam em curso, afirma o relatório.
- As normas de proteção de dados na União Europeia tratam a exatidão de dados como uma das suas principais diretrizes.
- As conclusões, quando saírem, devem ser entendidas como um denominador comum entre as autoridades nacionais.
“Devido à natureza probabilística do sistema, a atual abordagem de formação conduz a um modelo que também pode produzir resultados tendenciosos ou inventados”, afirma o relatório.
“Além disso, os resultados fornecidos pelo ChatGPT serão provavelmente considerados factualmente precisos pelos usuários finais, incluindo informações relacionadas a indivíduos, independentemente de sua precisão real”, acrescenta o documento emitido pela força-tarefa europeia.