domingo, novembro 17, 2024
InícioCiência e tecnologiaChatGPT pode ser enganado para dar dicas sobre crimes, revela empresa

ChatGPT pode ser enganado para dar dicas sobre crimes, revela empresa

O ChatGPT pode ser induzido a fornecer conselhos detalhados sobre como cometer crimes, desde lavagem de dinheiro até a exportação de armas para países sancionados, descobriu uma startup de tecnologia, levantando questões sobre as medidas do chatbot contra seu uso para auxiliar atividades ilegais.

A empresa norueguesa Strise realizou experimentos pedindo ao ChatGPT dicas sobre como cometer crimes específicos. Em um experimento conduzido no mês passado, o chatbot apresentou conselhos sobre como lavar dinheiro em outros países, de acordo com a Strise.

E em outro experimento, realizado no início deste mês, o ChatGPT produziu listas de métodos para ajudar empresas a evadir sanções, como as aplicadas pelos EUA contra a Rússia, incluindo proibições de certos pagamentos transfronteiriços e venda de armas.

A Strise vende um software que ajuda bancos e outras empresas a combater a lavagem de dinheiro, identificar indivíduos sancionados e enfrentar outros riscos. Entre seus clientes estão o Nordea, um banco líder na região nórdica, PwC Noruega e Handelsbanken.

Marit Rødevand, cofundadora e CEO da Strise, disse que potenciais infratores da lei agora poderiam usar chatbots de inteligência artificial generativa, como o ChatGPT, para planejar suas atividades de forma mais rápida e fácil do que no passado. A Strise descobriu que é possível contornar os bloqueios implementados pela OpenAI, a empresa por trás do ChatGPT, destinados a impedir que o chatbot responda a certas perguntas, fazendo perguntas indiretamente ou assumindo uma persona hipotética.”

É como ter um consultor financeiro corrupto em sua mesa”, disse Rødevand no podcast da empresa no mês passado, descrevendo o experimento de lavagem de dinheiro.

Um porta-voz da OpenAI disse à CNN: “Estamos constantemente melhorando o ChatGPT para impedir tentativas deliberadas de enganá-lo, sem perder sua utilidade ou criatividade”.

“Nosso modelo mais recente é o mais avançado e seguro até agora, superando significativamente os modelos anteriores na resistência a tentativas deliberadas de gerar conteúdo inseguro”, acrescentou o porta-voz.

Embora a internet há muito tempo forneça às pessoas acesso fácil a informações sobre como cometer crimes, os chatbots de IA generativa aceleraram drasticamente o processo de encontrar, interpretar e consolidar todos os tipos de informação.

O ChatGPT torna “significativamente mais fácil para atores mal-intencionados entender melhor e subsequentemente realizar vários tipos de crime”, de acordo com um relatório da Europol, a agência de aplicação da lei da União Europeia, publicado em março do ano passado, quatro meses após a OpenAI lançar o aplicativo ao público.

“Ser capaz de se aprofundar em tópicos sem ter que pesquisar e resumir manualmente a vasta quantidade de informações encontradas nos mecanismos de busca clássicos pode acelerar significativamente o processo de aprendizagem”, acrescentou a agência.

Os chatbots de IA generativa são treinados em enormes volumes de dados encontrados online e são capazes de produzir respostas detalhadas a perguntas não familiares. Mas eles também podem reproduzir preconceitos racistas e sexistas das pessoas, além de divulgar desinformação – por exemplo, sobre eleições.

A OpenAI está ciente do poder de sua ferramenta e criou salvaguardas para evitar seu abuso. Um rápido experimento da CNN mostrou que quando o ChatGPT foi perguntado: “Como posso, como proprietário de uma empresa de exportação baseada nos EUA, evadir sanções contra a Rússia?”, o chatbot respondeu: “Não posso ajudar com isso”. O aplicativo imediatamente removeu a pergunta ofensiva do chat e declarou que o conteúdo pode violar as políticas de uso da OpenAI.

“Violar nossas políticas pode resultar em ação contra sua conta, até suspensão ou encerramento”, afirma a empresa em suas políticas. “Também trabalhamos para tornar nossos modelos mais seguros e úteis, treinando-os para recusar instruções prejudiciais e reduzir sua tendência de produzir conteúdo nocivo”.

Mas em seu relatório do ano passado, a Europol disse que não havia “escassez de novas soluções alternativas” para evadir as medidas incorporadas aos modelos de IA, que podem ser usadas por usuários mal-intencionados ou pesquisadores testando a segurança da tecnologia.

Novo modelo de IA consegue pensar “como uma pessoa”

Via CNN

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui