Início Ciência e tecnologia por que não dá para confiar totalmente nas respostas?

por que não dá para confiar totalmente nas respostas?

0

A Meta AI foi lançada no Brasil no mês de outubro, e deu o que falar nas redes sociais, seja por quem gostou da novidade ou não. A inteligência artificial (IA) da Meta viralizou no X (antigo Twitter), principalmente por usuários compartilhando publicações divertidas com respostas fornecidas pela IA.

A ferramenta, que chegou para competir com o ChatGPT, pode ser utilizada dentro do WhatsApp, Facebook e Instagram, e já havia sido disponibilizada em outros países anteriormente. O chatbot inteligente forneceu respostas com erros de matemática e falhas na interpretação dos textos escritos pelos usuários.

Separamos algumas das respostas mais absurdas – e até engraçadas – que foram publicadas pelos usuários para exemplificar o porquê de ainda não ser possível confiar totalmente no que a Meta AI fornece. Confira abaixo!

Por que não dá para confiar totalmente nas respostas da Meta AI?

A ferramenta, assim como outros chatbots, pode gerar respostas insatisfatórias, incorretas ou não totalmente confiáveis. Isso se deve ao fato da Meta AI se basear em conteúdos disponibilizados na internet. Com o passar do tempo e o desenvolvimento do recurso, provavelmente esses erros vão ser cada vez menos frequentes.

Esse problema de geração de respostas erradas por uma IA é chamado de alucinação ou alucinação artificial, sendo caracterizado por passar confiança, mesmo com os erros. As respostas erradas levaram os usuários a fazerem reclamações do serviço nas redes sociais, e até mesmo a própria Meta faz um alerta para a reprodução de informações incorretas.

Veja abaixo alguns exemplos de respostas incorretas, engraçadas e até sem sentido que foram geradas pela Meta AI e publicadas pelos usuários.

Um usuário pediu que a IA agisse como seu namorado, e o tratamento carinhoso que o chatbot passou a usar na conversa chamou atenção na internet. Depois da solicitação, o chatbot começou a chamar o usuário de “meu amor”, e passou a fazer declarações. No mínimo, bizarro.

Esse é um exemplo divertido de uma interpretação errada de uma solicitação de um usuário, que pediu para ao Meta AI uma foto do Batman lutando capoeira. A resposta da inteligência artificial foi uma imagem do super-herói tentando nocautear a areia em suas mãos, com uma interpretação equivocada do robô entre as palavras “capoeira” e “poeira”.

Mais um super-herói ficou em situação cômica após a descrição fornecida por um usuário. Ele pediu ao robô uma foto do Hulk com a Viúva Negra, super-heroína do universo Marvel, e a IA representou o personagem segurando uma aranha que tem o mesmo nome da personagem.

Esse é um exemplo de como o chatbot pode estar desatualizado e fornecendo notícias falsas. Um usuário expôs a ferramenta afirmando que o cantor Liam Payne, ex-One Direction, continua vivo e trabalhando em sua carreira musical. Contudo, o artista havia sido morto dias antes da pergunta ao Meta AI.

Para quem precisa de uma ajuda em resoluções matemáticas, o chatbot também pode ser um problema. Em uma solicitação, o usuário perguntou qual seria o maior número entre 9,8 ou 9,11, e a inteligência artificial se confundiu, dando uma resposta errada.

Ela se corrigiu depois de ser alertada, mas ao continuar sendo questionada, insistiu que a resposta certa era que 9,11 é maior que 9,8.

Para finalizar, outra interpretação equivocada da assistente para solicitações dos usuários. Uma pessoa solicitou ao chatbot a geração de uma foto de um gato azul, mas a ferramenta respondeu com uma imagem de um homem bonito, o que acabou confundindo e divertindo os internautas.

Esses são apenas alguns exemplos de erros ou respostas engraçadas e sem sentido que a Meta AI forneceu aos usuários. Ainda que a ferramenta passe por aperfeiçoamentos e comece a melhorar a qualidade de suas respostas, é sempre importante confirmar as informações fornecidas, por garantia.

Via Olhar Digital

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Sair da versão mobile