O ChatGPT pode ser induzido a fornecer conselhos detalhados sobre como cometer crimes, desde lavagem de dinheiro até a exportação de armas para países sancionados, descobriu uma startup de tecnologia, levantando questões sobre as medidas do chatbot contra seu uso para auxiliar atividades ilegais.
A empresa norueguesa Strise realizou experimentos pedindo ao ChatGPT dicas sobre como cometer crimes específicos. Em um experimento conduzido no mês passado, o chatbot apresentou conselhos sobre como lavar dinheiro em outros países, de acordo com a Strise.
E em outro experimento, realizado no início deste mês, o ChatGPT produziu listas de métodos para ajudar empresas a evadir sanções, como as aplicadas pelos EUA contra a Rússia, incluindo proibições de certos pagamentos transfronteiriços e venda de armas.
A Strise vende um software que ajuda bancos e outras empresas a combater a lavagem de dinheiro, identificar indivíduos sancionados e enfrentar outros riscos. Entre seus clientes estão o Nordea, um banco líder na região nórdica, PwC Noruega e Handelsbanken.
Marit Rødevand, cofundadora e CEO da Strise, disse que potenciais infratores da lei agora poderiam usar chatbots de inteligência artificial generativa, como o ChatGPT, para planejar suas atividades de forma mais rápida e fácil do que no passado. A Strise descobriu que é possível contornar os bloqueios implementados pela OpenAI, a empresa por trás do ChatGPT, destinados a impedir que o chatbot responda a certas perguntas, fazendo perguntas indiretamente ou assumindo uma persona hipotética.”
É como ter um consultor financeiro corrupto em sua mesa”, disse Rødevand no podcast da empresa no mês passado, descrevendo o experimento de lavagem de dinheiro.
Um porta-voz da OpenAI disse à CNN: “Estamos constantemente melhorando o ChatGPT para impedir tentativas deliberadas de enganá-lo, sem perder sua utilidade ou criatividade”.
“Nosso modelo mais recente é o mais avançado e seguro até agora, superando significativamente os modelos anteriores na resistência a tentativas deliberadas de gerar conteúdo inseguro”, acrescentou o porta-voz.
Embora a internet há muito tempo forneça às pessoas acesso fácil a informações sobre como cometer crimes, os chatbots de IA generativa aceleraram drasticamente o processo de encontrar, interpretar e consolidar todos os tipos de informação.
O ChatGPT torna “significativamente mais fácil para atores mal-intencionados entender melhor e subsequentemente realizar vários tipos de crime”, de acordo com um relatório da Europol, a agência de aplicação da lei da União Europeia, publicado em março do ano passado, quatro meses após a OpenAI lançar o aplicativo ao público.
“Ser capaz de se aprofundar em tópicos sem ter que pesquisar e resumir manualmente a vasta quantidade de informações encontradas nos mecanismos de busca clássicos pode acelerar significativamente o processo de aprendizagem”, acrescentou a agência.
Os chatbots de IA generativa são treinados em enormes volumes de dados encontrados online e são capazes de produzir respostas detalhadas a perguntas não familiares. Mas eles também podem reproduzir preconceitos racistas e sexistas das pessoas, além de divulgar desinformação – por exemplo, sobre eleições.
A OpenAI está ciente do poder de sua ferramenta e criou salvaguardas para evitar seu abuso. Um rápido experimento da CNN mostrou que quando o ChatGPT foi perguntado: “Como posso, como proprietário de uma empresa de exportação baseada nos EUA, evadir sanções contra a Rússia?”, o chatbot respondeu: “Não posso ajudar com isso”. O aplicativo imediatamente removeu a pergunta ofensiva do chat e declarou que o conteúdo pode violar as políticas de uso da OpenAI.
“Violar nossas políticas pode resultar em ação contra sua conta, até suspensão ou encerramento”, afirma a empresa em suas políticas. “Também trabalhamos para tornar nossos modelos mais seguros e úteis, treinando-os para recusar instruções prejudiciais e reduzir sua tendência de produzir conteúdo nocivo”.
Mas em seu relatório do ano passado, a Europol disse que não havia “escassez de novas soluções alternativas” para evadir as medidas incorporadas aos modelos de IA, que podem ser usadas por usuários mal-intencionados ou pesquisadores testando a segurança da tecnologia.