quinta-feira, novembro 21, 2024
InícioCiência e tecnologiapor que não dá para confiar totalmente nas respostas?

por que não dá para confiar totalmente nas respostas?

A Meta AI foi lançada no Brasil no mês de outubro, e deu o que falar nas redes sociais, seja por quem gostou da novidade ou não. A inteligência artificial (IA) da Meta viralizou no X (antigo Twitter), principalmente por usuários compartilhando publicações divertidas com respostas fornecidas pela IA.

A ferramenta, que chegou para competir com o ChatGPT, pode ser utilizada dentro do WhatsApp, Facebook e Instagram, e já havia sido disponibilizada em outros países anteriormente. O chatbot inteligente forneceu respostas com erros de matemática e falhas na interpretação dos textos escritos pelos usuários.

Separamos algumas das respostas mais absurdas – e até engraçadas – que foram publicadas pelos usuários para exemplificar o porquê de ainda não ser possível confiar totalmente no que a Meta AI fornece. Confira abaixo!

Por que não dá para confiar totalmente nas respostas da Meta AI?

A ferramenta, assim como outros chatbots, pode gerar respostas insatisfatórias, incorretas ou não totalmente confiáveis. Isso se deve ao fato da Meta AI se basear em conteúdos disponibilizados na internet. Com o passar do tempo e o desenvolvimento do recurso, provavelmente esses erros vão ser cada vez menos frequentes.

Esse problema de geração de respostas erradas por uma IA é chamado de alucinação ou alucinação artificial, sendo caracterizado por passar confiança, mesmo com os erros. As respostas erradas levaram os usuários a fazerem reclamações do serviço nas redes sociais, e até mesmo a própria Meta faz um alerta para a reprodução de informações incorretas.

Veja abaixo alguns exemplos de respostas incorretas, engraçadas e até sem sentido que foram geradas pela Meta AI e publicadas pelos usuários.

Um usuário pediu que a IA agisse como seu namorado, e o tratamento carinhoso que o chatbot passou a usar na conversa chamou atenção na internet. Depois da solicitação, o chatbot começou a chamar o usuário de “meu amor”, e passou a fazer declarações. No mínimo, bizarro.

Esse é um exemplo divertido de uma interpretação errada de uma solicitação de um usuário, que pediu para ao Meta AI uma foto do Batman lutando capoeira. A resposta da inteligência artificial foi uma imagem do super-herói tentando nocautear a areia em suas mãos, com uma interpretação equivocada do robô entre as palavras “capoeira” e “poeira”.

Mais um super-herói ficou em situação cômica após a descrição fornecida por um usuário. Ele pediu ao robô uma foto do Hulk com a Viúva Negra, super-heroína do universo Marvel, e a IA representou o personagem segurando uma aranha que tem o mesmo nome da personagem.

Esse é um exemplo de como o chatbot pode estar desatualizado e fornecendo notícias falsas. Um usuário expôs a ferramenta afirmando que o cantor Liam Payne, ex-One Direction, continua vivo e trabalhando em sua carreira musical. Contudo, o artista havia sido morto dias antes da pergunta ao Meta AI.

Para quem precisa de uma ajuda em resoluções matemáticas, o chatbot também pode ser um problema. Em uma solicitação, o usuário perguntou qual seria o maior número entre 9,8 ou 9,11, e a inteligência artificial se confundiu, dando uma resposta errada.

Ela se corrigiu depois de ser alertada, mas ao continuar sendo questionada, insistiu que a resposta certa era que 9,11 é maior que 9,8.

Para finalizar, outra interpretação equivocada da assistente para solicitações dos usuários. Uma pessoa solicitou ao chatbot a geração de uma foto de um gato azul, mas a ferramenta respondeu com uma imagem de um homem bonito, o que acabou confundindo e divertindo os internautas.

Esses são apenas alguns exemplos de erros ou respostas engraçadas e sem sentido que a Meta AI forneceu aos usuários. Ainda que a ferramenta passe por aperfeiçoamentos e comece a melhorar a qualidade de suas respostas, é sempre importante confirmar as informações fornecidas, por garantia.

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui