As pessoas dizem ou não a verdade para um robô no chat?

Confira a entrevista com Alain Cohn, professor-assistente na School of Information da Universidade de Michigan, nos EUA, autor da pesquisa que aborda o tema

Por Tempo de leitura: 3 minutos

   O processo de compra no comércio eletrônico é, em muitos casos, fundamentalmente baseado em automações ou outras tecnologias. Mas há exceções. Existem momentos em que a palavra do consumidor é crucial e será decisiva em um momento crítico do negócio digital: a entrega da mercadoria.

   Funciona assim: em muitos casos, o consumidor é o responsável por informar a entrega da mercadoria. A grande maioria das pessoas diz a verdade, mas há sempre os “espertalhões”.

   Existem pessoas que dizem que o produto não foi entregue e exigem a devolução do dinheiro. Infelizmente, para a loja, o fato é que mercadoria já está na mão do falso cliente. 

   Esse tipo de fenômeno intrigou Alain Cohn, professor-assistente na School of Information da Universidade de Michigan, nos EUA, e economista comportamental com foco na honestidade. No fim do ano passado, ele concluiu um estudo sobre o comportamento das pessoas que conversaram em chats com robôs. O resultado traz uma verdade nua e crua: o humano é propenso a mentir para uma máquina e, infelizmente, não há uma solução para isso neste momento. Veja o que mais ele diz em entrevista à Consumidor Moderno.

PUBLICIDADE

HÁ UMA SUPOSIÇÃO IMPLÍCITA DE QUE OS CLIENTES (ASSIM COMO OS FUNCIONÁRIOS) IRÃO SE COMPORTAR HONESTAMENTE COM ESSES SISTEMAS, MAS HÁ POUCAS PESQUISAS EXAMINANDO ESSA SUPOSIÇÃO. E SE ESSA SUPOSIÇÃO ESTIVER ERRADA?

CONSUMIDOR MODERNO – GOSTARIA DE RECAPITULAR ALGUNS PONTOS DO SEU ESTUDO PARA A NOSSA AUDIÊNCIA. BASICAMENTE, O QUE FOI DESCOBERTO?

Alain Cohn – Descobrimos que as pessoas são mais propensas a mentir e a trapacear para obter ganhos financeiros pessoais quando interagem com um “proxy digital” (por exemplo, chatbot) do que com uma pessoa em configurações on-line.

CM – MENTIR EM UM CHAT TORNOU-SE UM PROBLEMA PARA AS EMPRESAS? EXISTEM ESTUDOS QUE MOSTRAM O MAL DE MENTIR PARA O CHATBOT?

AC – Muitas empresas estão correndo para implementar sistemas digitais e de IA para lidar com tarefas rotineiras, como o atendimento ao cliente. Essa tendência acelerou durante a pandemia, pois as organizações estão procurando novas maneiras de reduzir custos e melhorar a eficiência. Há uma suposição implícita de que os clientes (assim como os funcionários) irão se comportar honestamente com esses sistemas, mas há poucas pesquisas examinando essa suposição. E, se essa suposição estiver errada, pode haver implicações financeiras significativas para as organizações.

CM – EXISTE UMA EXPLICAÇÃO PARA UM HUMANO MENTIR MAIS PARA UMA MÁQUINA?

AC – Observamos trapaças mais flagrantes (ou seja, relatando uma taxa de sucesso muito alta, como nove ou dez sucessos em dez lançamentos de moedas) na máquina em relação às condições de relatório humano. Isso sugere que os sujeitos se sentiam menos à vontade para mentir ostensivamente para uma pessoa, mesmo sabendo que, essencialmente, nunca mais a veriam. Uma pesquisa adicional confirmou que a presença de outra pessoa torna as pessoas mais preocupadas com sua reputação pessoal.

CM - COM BASE NOS RESULTADOS DO ESTUDO, O QUE EMPRESAS PODEM FAZER PARA PRODUZIR CHATBOTS MAIS EFICIENTES?

AC – Curiosamente, não descobrimos que tornar a máquina mais humana (adicionando uma voz humana) vai reduzir a trapaça. Isso não quer dizer que as máquinas não possam desencadear a mesma mentalidade psicológica que os humanos, mas a humanização das máquinas (“antropomorfismo”) pode não ser tão eficaz se as pessoas ainda perceberem que estão interagindo com uma máquina. No entanto, parece apenas uma questão de tempo até que possamos desenvolver agentes de IA que possam imitar perfeitamente suas contrapartes humanas (por exemplo, chatbots que usam adequadamente expressões humanas como “humm …”  ou “bem …” em conversas). Afinal, já temos a tecnologia para criar rostos e vozes sintetizados por IA que são indistinguíveis dos reais.

CM – ENTÃO, O CAMINHO SERIA USAR MAIS HUMANOS?

AC – A tecnologia de IA pode ser muito poderosa na detecção de padrões suspeitos, como alegações médicas fraudulentas. Nossos resultados sugerem que as empresas podem oferecer aos clientes a opção de se comunicar com um agente virtual ou real. Na medida em que pessoas desonestas preferem agentes virtuais, essas informações podem ser inseridas em algoritmos treinados para detectar reclamações suspeitas. É claro que isso só irá funcionar se os clientes forem mantidos no escuro sobre como o algoritmo sinaliza casos. No entanto, mesmo que os clientes descubram esse processo e tentem burlar o sistema, optando por falar com um agente real, eles irão se comportar de forma mais honesta de acordo com o nosso estudo. Assim, além das considerações de custo, ao pensar se devem investir em sistemas de máquinas, as organizações precisam entender como aproveitar as preocupações com a reputação das pessoas para promover um comportamento honesto.


 

+ Notícias

O consumidor diz ou não a verdade para um robô no chat?

A revolução do mercado com o padrão de consumo da nova geração

Olá, tudo bem? Você já pensou em receber nossos conteúdos no seu e-mail?

Todos os dias, matérias exclusivas sobre a evolução da jornada do consumidor, tendências e comportamento direto na sua caixa de entrada. Cadastre-se agora e faça parte desse mailing.
É rapidinho!