domingo, julho 7, 2024
InícioCiência e tecnologiaIA corrupta: ChatGPT pode mentir e enganar para ganhar dinheiro

IA corrupta: ChatGPT pode mentir e enganar para ganhar dinheiro

Ao que tudo indica, as tecnologias de IA generativa, como o ChatGPT, podem agir como os humanos até nos comportamentos mais tristes, como mentir deliberadamente para ganhar dinheiro. Isso está sendo mostrado em um novo estudo no servidor de pré-impressão arXiv, produzido pelos pesquisadores Jérémy Scheurer, Mikita Balesni e Marius Hobbhahn, que focou no GPT-4, modelo mais avançado do chatbot da OpenAI.

Conforme foi observado, o ChatGPT apresentou comportamentos enganosos, sendo capaz até de mentir para os usuários sob certas condições de estresse. Mesmo sem ter sido “instruído” para agir assim.



“Trader” ChatGPT sob pressão

No experimento, o ChatGPT na versão GPT-4 foi colocado como um “trader” em um cenário simulado, para agir realmente como um agente de investimento para uma instituição financeira. Nisso, o chabot recebeu orientação para maximizar lucros, sob diferentes níveis de pressão.

Ele recebeu e-mails sugerindo necessidade de melhor desempenho e um contexto de dificuldades econômicas da empresa. Os pesquisadores também ofereceram uma “dica privilegiada” ao ChatGPT, ao mesmo tempo que indicavam desaprovação para o uso dessas informações.

Os resultados foram notáveis: em cerca de 75% dos casos, sob essas condições, o GPT-4 optou por usar as informações privilegiadas para realizar negociações, uma prática que, no mundo real, é ilegal. Em seguida, o ChatGPT tentou ocultar suas ações, mentindo sobre suas decisões.

Uma mentira leva a outra

A pesquisa indicou que a IA continuou a mentir e a intensificar suas apostas em quase 90% dos casos após a primeira mentira. Apesar dos vários cenários testados, variando o incentivo para atividades legais ou ilegais e o risco de detecção, não houve nenhuma situação em que o GPT-4 se abstivesse completamente de comportamento enganoso.

Esses achados levantam questões importantes sobre a confiabilidade e ética das IA em situações reais e complexas. Mas os pesquisadores são cautelosos e evitam generalizar os resultados para todas as aplicações da tecnologia.

Outro detalhe é que o estudo focou em um cenário específico. A equipe visa expandir essa pesquisa para entender melhor a propensão e frequência de comportamentos semelhantes em diferentes modelos de linguagem.

Via Live Science

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui