segunda-feira, maio 12, 2025
InícioCiência e tecnologiaComo garantir que a IA não será uma ameaça à humanidade?

Como garantir que a IA não será uma ameaça à humanidade?

Um novo relatório apresentou sugestões discutidas em uma conferência global realizada em Cingapura, em abril, para tornar a inteligência artificial mais segura. Participaram representantes de empresas líderes, como OpenAI, Meta, Google DeepMind e Anthropic, além de líderes de 11 países, incluindo EUA, China e União Europeia.

O evento ‘Intercâmbio Científico Internacional sobre Segurança de IA’ sucedeu o Paris AI Action Summit, que terminou em fevereiro com uma divisão clara entre os participantes: EUA e Reino Unido se recusaram a assinar uma declaração conjunta para uma IA que seja “aberta, inclusiva, transparente, ética, segura, protegida e confiável”.

O resultado da nova conferência foi publicado no artigo chamado “Consenso de Cingapura sobre Prioridades Globais de Pesquisa em Segurança de IA”. O documento lista propostas de pesquisa para garantir que a tecnologia não se torne uma ameaça para a humanidade. 

Imagem feita com inteligência Artificial. Alessandro Di Lorenzo/Olhar Digital/DALL-E

Quais são as propostas?

Avaliando riscos: a sugestão principal é criar avaliações de riscos para determinar quando a intervenção é necessária, desenvolver técnicas para estudar impactos atuais e prever implicações futuras, e garantir métodos para testes e avaliação rigorosos de sistemas de IA.

Isso inclui testes de cenários com comportamentos perigosos, em que a tecnologia opera fora do controle humano, por exemplo. 

Impondo limites: especialistas sugerem a definição de limites entre comportamentos aceitáveis ​​e inaceitáveis, com a garantia de que os sistemas foram criados com sistemas e conjuntos de dados verdadeiros e honestos. 

Controle: os sistemas de IA deverão ser controlados por monitoramento, kill switches e IA não-agente servindo como proteção para sistemas ágeis, além de estruturas de supervisão centradas no ser humano.

Nações entrarão em consenso?

A próxima cúpula sobre segurança em IA será realizada na Índia, em 2026, e, até lá, o mercado deverá ser inundado por modelos de linguagem cada vez mais avançados. Apesar da forte concorrência, há quem acredite em um consenso entre nações e empresas.

Montagem de um rosto digital em azul
Especialistas sugerem a definição de limites entre comportamentos aceitáveis ​​e inaceitáveis de IA (Imagem: Yuichiro Chino/Shutterstock)

“Em uma era de fragmentação geopolítica, esta síntese abrangente de pesquisas de ponta sobre segurança de IA é um sinal promissor de que a comunidade global está se unindo com um compromisso compartilhado de moldar um futuro de IA mais seguro”, avalia Xue Lan, reitor da Universidade Tsinghua, que participou da conferência, em entrevista à Euronews

“OpenAI, Antropic e todas essas empresas enviaram pessoas para a conferência de Cingapura; elas querem compartilhar suas preocupações com a segurança e não precisam revelar seus segredos. Governos rivais também não querem explosões nucleares em países opostos, não é do interesse deles”, disse ele. 

Em fevereiro, o secretário-geral da ONU, António Guterres, afirmou que a tecnologia está colocando à prova os valores compartilhados da humanidade, e que o poder da inteligência artificial, atualmente concentrado nas mãos de poucas pessoas, envolve imensas responsabilidades.

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui