Plataformas usam Inteligência Artificial para conversar com mortos

Apesar do conforto temporário, especialistas alertam que uso da IA para esses fins pode causar problemas para a saúde mental

Lidar com a perda de um ente querido não é uma tarefa fácil. A angústia e o medo de esquecer memórias de quem partiu é o receio de muitas pessoas que vivem o processo de luto e, uma das saídas encontradas para se conectar com quem morreu é a utilização da Inteligência Artificial (IA).

Apesar disso, pesquisadores de uma universidade nos Estados Unidos e especialistas ouvidos pela reportagem detalham que mesmo com “consolo temporário”, a situação não evita o confronto com a realidade, podendo trazer até problemas de saúde mental.

Utilizar a IA para conversar com mortos está virando moda, apesare de ser considerado absurdo por muitas pessoas. Nos EUA, a prática de usar chatbots  (um programa de computador que tenta simular um ser humano na conversação com as pessoas) que criam avatares de pessoas falecidas é algo bastante comum, o que acabou levando dois especialistas da Universidade de Cambridge a publicarem uma pesquisa, no início do mês, acerca do tema.

O uso da IA para “conversar com mortos” foi alvo de uma pesquisa de uma universidade nos Estados Unidos/Foto: Freepik

Para a psicóloga  brasiliense Aline Agustinho, a tentativa de substituir a presença de quem morreu para evitar, ou minimizar, o contato com sentimentos de dor pode retardar o enfrentamento necessário e cronificar a experiência de estar enlutado. “Como consequência, é possível que a pessoa venha a necessitar de suporte profissional especializado (psicólogo, psiquiatra) para conseguir lidar com a perda em questão, posteriormente”, explica.

A especialista acrescenta que todos sofrem perdas e buscam formas para reparar a dor, mas que essas plataformas que utilizam a IA para recriar uma conversa com alguém que morreu só retarda um sentimento que é inevitável.

“O uso de tecnologias que recriam traços do ente falecido pode servir de consolo temporário, mas não evita o confronto com a realidade. É no apoio recebido por parte de outros seres amados que o enlutado pode ir se ‘refazendo’.  Ela ressaltou declaração de Colin Parkes, psiquiatra falecido neste ano, que escreveu no prefácio do livro: O luto no século 21, ‘que o luto é o custo do amor, e o amor, na minha visão, a chave para entender e ajudar pessoas enlutadas”, completou.

É o mesmo entendimento da psicóloga brasiliense Gláucia Flores. Na avaliação dela, usar dessas plataformas para recriar alguém que morreu e, assim, trazer conforto, é uma forma de fugir da realidade para não ter que lidar com o sofrimento. “É preciso entender que o processo de luto é um movimento de transformar a dor e a perda em saudade, em lembranças, é um processo de buscar dar um novo lugar dentro de si, para  aquele que amamos e partiu”, apontou.

“Utilizar recursos como a IA para recriar voz, rosto, expressões de quem faleceu pode desencadear sofrimentos de ordens que ainda não foram estudados, acredito que dificilmente será visto como algo saudável nessa situação de dor e perda”, explicou. “É preciso entender que o processo de luto é um movimento de transformar a dor e a perda em saudade, em lembranças, é um processo de buscar dar um novo lugar dentro de si, para  aquele que amamos e partiu. Usar IA para minimizar a dor pode potencializar ainda mais o sofrimento e desencadear problemas de saúde, como quadros de depressão e ansiedade, por exemplo”, completou Gláucia.

Ferramentas

Tomasz Hollanek e Katarzyna NowaczykBasiska descreveram que essas ferramentas que recriam a imagem do falecido são chamados de griefbots, deadbots ou serviços de recriação. As réplicas, segundo a pesquisa, podem causar danos psicológicos e até “assombrar digitalmente” aqueles que utilizam os mecanismos.

Para embasar a tese, os especialistas explicaram um caso em que chegaram ao conhecimento deles. Bianca, de 35 anos, entrou em uma plataforma desenvolvida para pessoas que perderam avós. Ela “reviveu” a avó, Laura, que havia falecido meses antes. O bot trocava mensagens e até chegou a imitar com exatidão o sotaque da vítima, após a neta informar os dados ao site.

O serviço premium da plataforma custa 50 euros, mas a neta optou pelo período de testes premiu, que é gratuito. Após a assinatura ter expirado, surgiram-se anúncios na plataforma, o que começou a deixar Bianca desconfortável. Em uma noite, a neta decidiu ligar para a avó, via aplicativo, para dizer que estava preparando espaguete à bolonhesa — comida preferida das duas. No entanto, o bot aponta que o ideal era pedir um iFood, o que causou estranheza de Bianca, já que sua avó jamais falaria aquilo. O caso acabou gerando uma fúria da neta, que apontou que o bot desrespeitou a memória da avó.

Os especialistas apontam que já as plataformas que imitam aqueles que já se foram chegou a ser utilizada em outros casos. Um desses é de uma criança de 8 anos que perdeu a mãe, vítima de um câncer raro. Mãe e o pai do adolescente, sabendo do que inevitavelmente ocorreria, apresentaram ao menino antes do óbito da mãe, um aplicativo que “proporcionaria companheirismo e apoio emocional”. Para os estudiosos, apesar da intenção, a plataforma pode se tornar um pesadelo quando o rapaz perceber que se trata de um chatbot.

“Considerando a influência dos serviços recreativos em grupos vulneráveis de utilizadores em particular — por exemplo, utilizadores que sofrem de depressão — os prestadores de serviços devem, em consulta com psicólogos, psiquiatras e outros especialistas relevantes, incluir avisos de responsabilidade que alertem para quaisquer riscos potenciais, semelhante a mensagens alertando os espectadores de que o conteúdo que eles assistem pode causar convulsões em pessoas com epilepsia fotossensível”, detalha a pesquisa.

“Além disso, também recomendamos que os produtores de serviços de recriação forneçam aos utilizadores informações acessíveis sobre a natureza da IA conversacional, garantindo que os utilizadores não desenvolvam uma percepção falha das capacidades do deadbot com o qual estão a interagir”, completam os especialistas, que pedem limites de idade para utilização dessas plataformas nos Estados Unidos.

Legislação

Em países da União Europeia, foi aprovada em março a primeira lei com regras amplas para uso e desenvolvimento da tecnologia. No Brasil, há uma proposta de regulamentação apresentada pelo senador Rodrigo Pacheco (PSD-MG), a partir de outros projetos que tratam da regulação da tecnologia.

Apesar disso, a discussão da regulamentação da IA avança lentamente, apesar da boa vontade dos legisladores. Existe a possibilidade de o projeto ser votado pelo plenário do Senado ainda neste semestre.

PUBLICIDADE