AlĂŽ, pai? Golpistas usam inteligĂȘncia artificial para clonar vozes e pedir dinheiro

Especialista recomenda ligar de volta para checar informação

Por O Globo 22/05/2023 Ă s 15:00 Atualizado: hĂĄ 3 anos

No mĂȘs passado, a jornalista Joanna Stern, do Wall Street Journal, resolveu testar atĂ© onde conseguiria enganar as pessoas com um clone virtual de sua voz e imagem, criado por sistemas de InteligĂȘncia Artificial (IA). NĂŁo teve muito sucesso com o vĂ­deo, entĂŁo usou a voz clonada em uma ligação para o pai, na qual pediu um documento sensĂ­vel e foi prontamente atendida.

O pai do influenciador digital Dario Centurione, da pågina Almanaque SOS, também acreditou na voz clonada do filho. A diferença é que a ligação não se tratava apenas de brincadeira, mas de um golpe.

— Meu pai recebeu uma ligação onde uma pessoa, que ele acreditava ser eu, pedia R$ 600. Por conta da voz ser muito parecida, o meu pai nem se preocupou em perguntar o bĂĄsico. A pessoa pediu a transferĂȘncia para uma conta que nĂŁo estava no meu nome, mas ele nem ligou porque a voz era minha — contou Centurione.

@almanaquesos

Cuidado com o golpe que imita voz (InteligĂȘncia Artificial), crie agora uma PALAVRA CHAVE #AprendaNoTikTok #EuTeEnsino AgoraVoceSabe

♬ som original – Almanaque SOS

A compatibilidade da voz clonada era tĂŁo parecida com a voz natural do influenciador que o seu pai nĂŁo percebeu qualquer diferença, mesmo sendo mĂșsico e especialista em som. Entrando em um aplicativo, Centurione conseguiu facilmente criar uma cĂłpia da sua prĂłpria voz e decidiu repetir o experimento da jornalista do Wall Street Journal.

Fui checar se eu enganava alguĂ©m e nĂŁo sĂł consegui enganar o meu pai de novo, como a minha mĂŁe, que Ă© superdesconfiada. O meu irmĂŁo mais novo percebeu que a voz nĂŁo era minha. É um golpe que vai se sofisticar, em breve as ferramentas devem ser mais rĂĄpidas e eficientes, o que pode tornar as pessoas idosas vĂ­timas com mais frequĂȘncia. Os mais jovens, atĂ© por conhecimento do potencial da tecnologia, estĂŁo mais atentos.

Para evitar cair no golpe, veja as dicas de especialistas

-Fique atento à veracidade das informaçÔes: antes de agir com base em uma chamada telefÎnica, mensagem ou vídeo, verifique as informaçÔes em outras fontes. Por exemplo, chamar de volta, confirmar por e-mail ou checar com outras pessoas que possam garantir a autenticidade.

-Proteja seus dados: minimize a quantidade de informaçÔes pessoais que vocĂȘ compartilha online. Ao fornecer menos dados, vocĂȘ diminui o material disponĂ­vel para os criminosos cibernĂ©ticos que desejam criar deepfakes ou imitarem sua voz.

-Eduque-se sobre a tecnologia: conhecer o funcionamento dessas tecnologias e estar ciente das Ășltimas tendĂȘncias e tĂĄticas de fraude pode ajudĂĄ-lo a se proteger melhor.

-Verifique a conta bancĂĄria: sempre confira os destinatĂĄrios ao enviar dinheiro para um familia

Clones de voz gerados em poucos dias

Ferramentas como a VALL-E, da Microsoft, conseguem criar ĂĄudios longos com apenas trĂȘs segundos de fala como referĂȘncia. A tecnologia Ă© capaz de sintetizar uma gravação de voz de alguĂ©m e transformar esse arquivo em outro, mantendo as caracterĂ­sticas originais, como o tom da fala.

O novo software foi disponibilizado no Ășltimo dia 20 de maio para quem tiver interesse, e serĂĄ cobrada uma taxa para utilização. A empresa Synthesia oferece o mesmo serviço. É possĂ­vel gravar um vĂ­deo de 15 minutos e mandar para a ferramenta. Com base nesse vĂ­deo, serĂĄ criado um clone virtual em apenas alguns dias. O custo anual para uso Ă© de US$ 1.000, mais uma assinatura mensal de US$ 30.

Segundo Lucas Cabral, analista de IA da Play9, ferramentas que criam áudios falsos sempre precisam de um “input” do usuário, ou seja, do envio de um áudio ou vídeo que será usado como base para a criação da cópia.

EntĂŁo, se vocĂȘ quer que o Darth Vader leia um texto personalizado, Ă© mais fĂĄcil do que se a pretensĂŁo for copiar a voz de alguĂ©m que nĂŁo seja uma pessoa pĂșblica. Influenciadores, artistas e apresentadores — como Centurione — contam com horas e horas de falas publicadas na internet, entĂŁo, sĂŁo mais vulnerĂĄveis Ă  criação dos clones de voz.

Pessoas pĂșblicas mais vulnerĂĄveis

A tecnologia Ă© a mesma usada em aplicativos de localização, por exemplo, em que vocĂȘ ouve personalidades como Silvio Santos indicando o caminho. É difĂ­cil imaginar que o apresentador tenha se gravado dizendo “vire Ă  direita”, explica Cabral, mas hĂĄ grandes bancos de vĂ­deos em que ele aparece falando.

Em resumo, vocĂȘ captura uma voz, coloca na ferramenta e ela identifica padrĂ”es para criar uma modificação. Realmente fica muito parecido com a original. VocĂȘ pode escrever algo e a ferramenta reproduz o texto em ĂĄudio com base em uma referĂȘncia jĂĄ enviada, ou a ferramenta pode gerar um ĂĄudio simultaneamente, em que vocĂȘ fala e ela vai alterando com base em uma referĂȘncia — explicou o especialista.

Essas tantas possibilidades maximizam as chances de golpes envolvendo informaçÔes pessoais. Pedro Diógenes, diretor técnico LATAM na empresa de segurança da informação CLM, conta que antigamente era necessårio ter uma grande quantidade de dados para treinar os algoritmos, com horas e horas de åudio das pessoas chorando, gritando e falando palavras diferentes.

Agora, com pouquíssimos dados, é possível reproduzir fielmente a voz de alguém, imitando sotaque, choro e entonação.

— O golpista te estuda antes de dar o golpe, entĂŁo, imagine-o com a voz da sua filha. As pessoas terĂŁo que se educar (para evitar cair no golpe), combinando senhas que sĂł elas sabem para esses casos. A estratĂ©gia Ă© fazer perguntas.

O advogado Matheus Puppe, sócio da årea de TMT, Privacidade e Proteção de Dados do Maneira Advogados, explica que esse tipo de ferramenta abre margens para golpes ainda maiores.

A personificação de vozes jå foi usada para cometer fraudes financeiras, levando indivíduos e empresas a realizarem transaçÔes com base em instruçÔes dadas por um telefonema falso, porém convincente.

— Por isso a necessidade de uma legislação robusta e uma regulamentação sensível ao tema que possa equilibrar os avanços tecnológicos com a segurança e a privacidade necessárias. Precisamos de mecanismos de responsabilização mais efetivos para combater o uso indevido dessas tecnologias e, simultaneamente, promover a conscientização e a educação digital — disse o especialista.

Bloqueador de anuncios detectado

Por favor, considere apoiar nosso trabalho desativando a extensĂŁo de AdBlock em seu navegador ao acessar nosso site. Isso nos ajuda a continuar oferecendo conteĂșdo de qualidade gratuitamente.