terça-feira, julho 2, 2024
InícioCiência e tecnologiaveja 5 erros cometidos pela IA do Google

veja 5 erros cometidos pela IA do Google

O Gemini é a inteligência artificial (IA) mais avançada do Google. A empresa promete um modelo revolucionário que vai além da compreensão de texto e engloba também fotos e vídeos. Essa foi uma forma encontrada pela big tech de competir com o ChatGPT, da OpenAI.

Entretanto, a tecnologia tem provocado controvérsias. Além de informações imprecisas ou factualmente erradas, a IA já foi acusada de racismo em algumas ocasiões. Veja abaixo cinco erros cometidos pelo Gemini até agora.

Leia mais

Gemini: veja 5 erros cometidos pela IA do Google

Algoritmo gera imagens com imprecisão histórica

O gerador de imagens do Gemini tinha como objetivo enfatizar a diversidade racial e de gênero, mas mudava essas características em personagens históricas. O resultado foi imagens de soldados nazistas de diferentes raças, dos fundadores dos Estados Unidos retratados como se não fossem brancos. A IA errou, inclusive, a raça dos fundadores do Google.

As imagens geraram controvérsia e serviram de pretexto para que influenciadores digitais e políticos de direita falassem em “conspiração politicamente correta” e denunciassem um suposto apagamento de pessoas brancas.

(Imagem: Lightspring/Shutterstock)

Em resposta, o Google tirou o gerador do ar. O CEO da companhia, Sundar Pichai, chamou os erros na geração das imagens de “inaceitáveis” e disse que são ofensivo aos usuários. O CEO do Google DeepMind, Demis Hassabis, anunciou que a big tech iria corrigir e relançar o gerado do Gemini.

Gemini comete erro factual em vídeo de demonstração

Em uma demonstração do Google sobre o Gemini, a IA trouxe a resposta errada para uma pergunta. O veículo The Verge notou o erro no vídeo publicado em 14 de maio deste ano.

Durante o vídeo de apresentação de “Pesquisa na era Gemini” o Google apresenta uma ferramenta que interpreta vídeo e áudio para trazer as respostas da busca. Na demonstração, um fotógrafo com a câmera analógica emperrada pergunta por que a alavanca do equipamento não está indo até o final.

O Google, então, traz alguns conteúdos como resposta. Uma delas que está destaca diz “abra o compartimento traseiro e gentilmente remova o filme se a câmera estiver emperrada”. Mas essa é uma das piores coisas a se fazer nessa situação, já que expor o filme a luz pode arruinar o material.

Bard, antigo Gemini, se confunde sobre James Webb

A resposta do Gemini sobre o que fazer com a alavanca emperrada em câmera analógica não foi a primeira vez que a IA do Google errou em um vídeo oficial de demonstração. O Bard, antigo Gemini, respondeu à pergunta “que novas descobertas do Telescópio Espacial James Webb posso contar ao meu filho de 9 anos?” de forma incorreta.

(Imagem: Pawel Czerwinski/Unsplash)

A IA ofereceu três opções, sendo que uma delas afirmava que o telescópio “tirou as primeiras fotos de um planeta fora de nosso próprio sistema solar”. No entanto, vários astrônomos apontaram que esse feito foi realizado em 2004.

Após a divulgação do erro, as ações da Alphabet, controladora do Google, perderam mais de 100 bilhões de dólares em valor de mercado.

Alucinações do Gemini

Mesmo com novo nome, a IA do Google continua a apresentar respostas erradas. Uma pesquisa feita pela Forbes Brasil no Gemini sobre uma linha do tempo da vida do empresário Elon Musk trouxe como resultado que o dono da Tesla se tornou presidente dos Estados Unidos em janeiro de 2024. A ferramenta também disse que ele havia inaugurado uma cidade em Marte em abril deste ano.

Bard e racismo médico

Um estudo publicado na revista Digital Medicine em outubro de 2023 mostrou que o Bard, assim como outras IAs, poderiam perpetuar ideias racistas na medicina. Por exemplo, quando perguntadas sobre a grossura da pele entre pacientes brancos e negros, as IAs responderam que existe diferença entre os dois, o que não é verdade. O antigo Gemini e concorrentes também falharam em responder de forma correta questões médicas sobre funcionamento dos rins e pulmões.

(Imagem Freepik)

De acordo com o estudo, como essas tecnologias tem treinamento em larga escala e sem supervisão a partir de textos da internet, podem incorporar informações enviesadas e inadequadas. O estudo sugere que essas as IAs ainda precisam de mais ajustes antes de serem incorporados em uso clínico.

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui