Tudo sobre OpenAI
Múltiplas operações de influência secreta que abusaram dos modelos de IA da OpenAI foram bloqueadas pela startup criadora do ChatGPT, segundo informações da companhia reveladas na última quinta-feira (30).
As operações, que a OpenAI encerrou entre 2023 e 2024, tiveram origem na Rússia, China, Irã e Israel e tentaram manipular a opinião pública e influenciar resultados políticos sem revelar as suas verdadeiras identidades ou intenções.
“Em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”, disse a OpenAI em um relatório sobre a operação, e acrescentou que trabalhou com pessoas de toda a indústria de tecnologia, civis sociedade e os governos para isolar os autores das campanhas.
Preocupação sobre uso de IA para interferir nas eleições cresce
- O relatório da OpenAI surge em meio a preocupações sobre o impacto da IA generativa em múltiplas eleições em todo o mundo previstas para este ano, incluindo nos EUA.
- Nas suas descobertas, a OpenAI revelou como redes de pessoas envolvidas em operações de influência usaram IA generativa para gerar textos e imagens em volumes muito maiores do que antes.
- A operação russa, chamada “Doppelganger”, usou os modelos da empresa para gerar manchetes, converter artigos de notícias em postagens no Facebook e criar comentários em vários idiomas para minar o apoio à Ucrânia.
“Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas.”, disse Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, em uma coletiva de imprensa.