Cientistas da Radbound University, na Holanda, estudam o fenômeno de seres humanos desenvolverem o sentimento de pena de um robô. A conclusão faz parte do estudo de Marieke Wieringa, que defenderá sua tese no próximo dia 5 de novembro.
Ainda que o robô não sinta e nem reconheça a dor, o homem, considerado um ser emocional, pode estar mais inclinado a acreditar que isso aconteça, especialmente se for manipulado de maneira correta. “Se um robô consegue fingir sentir dor emocional, as pessoas se sentem mais culpadas se o tratam mal”, explica Wieringa.
Testes com participantes diante da violência contra robôs
Na tese, Marieke e seus colegas investigaram como as pessoas agem diante da violência contra robôs. Para isso, vários testes foram realizados.
“Alguns participantes assistiram a vídeos de robôs que foram maltratados ou bem tratados. Às vezes, pedimos aos participantes que sacudissem os robôs eles mesmos. Tentamos todas as variações: às vezes o robô não respondia, às vezes sim — com sons lamentáveis e outras respostas que associamos à dor”, contou a cientista.
A partir dos testes foi possível perceber que o robô atormentado desencadeou mais pena: os participantes estavam menos dispostos a sacudir o robô novamente. “Se pedíssemos aos participantes para sacudir um robô que não demonstrasse emoção, eles não pareciam ter nenhuma dificuldade com isso”, acrescentou.
Os participantes também foram convidados a escolher: completar uma tarefa chata ou dar uma sacudida no robô. Se os participantes escolhessem sacudir o robô por mais tempo, isso significava que eles não teriam que executar a tarefa por tanto tempo.
“A maioria das pessoas não teve problema em sacudir um robô silencioso, mas assim que o robô começou a fazer sons lamentáveis, eles escolheram fazer a tarefa chata em vez disso”, entregou.
Tamagotchi é um bom exemplo
Wieringa também alertou que é apenas uma questão de tempos até que as empresas passem a explorar a manipulação emocional.
“As pessoas ficaram obcecadas com Tamagotchis por um tempo: animais de estimação virtuais que acionavam emoções com sucesso. Mas e se uma empresa fizesse um novo Tamagotchi que você tivesse que pagar para alimentar como um animal de estimação? É por isso que estou pedindo regulamentações governamentais que estabeleçam quando é apropriado que chatbots, robôs e outras variantes sejam capazes de expressar emoções”, conta.
Apesar das considerações, Marieke pontua que a proibição completa das emoções não seria boa. “É verdade que robôs emocionais teriam algumas vantagens. Imagine robôs terapêuticos que pudessem ajudar as pessoas a processar certas coisas”, cita.
“Em nosso estudo, vimos que a maioria dos participantes achou bom quando o robô desencadeou pena: de acordo com eles, isso sinalizou que comportamento violento não é ok. Ainda assim, precisamos nos proteger contra riscos para pessoas que são sensíveis a emoções ‘falsas’. Gostamos de pensar que somos seres muito lógicos e racionais que não caem em nada, mas no final do dia, também somos guiados por nossas emoções. E isso é bom, caso contrário, seríamos robôs nós mesmos”, conclui.