No mĂȘs passado, a jornalista Joanna Stern, do Wall Street Journal, resolveu testar atĂ© onde conseguiria enganar as pessoas com um clone virtual de sua voz e imagem, criado por sistemas de InteligĂȘncia Artificial (IA). NĂŁo teve muito sucesso com o vĂdeo, entĂŁo usou a voz clonada em uma ligação para o pai, na qual pediu um documento sensĂvel e foi prontamente atendida.
O pai do influenciador digital Dario Centurione, da pågina Almanaque SOS, também acreditou na voz clonada do filho. A diferença é que a ligação não se tratava apenas de brincadeira, mas de um golpe.
â Meu pai recebeu uma ligação onde uma pessoa, que ele acreditava ser eu, pedia R$ 600. Por conta da voz ser muito parecida, o meu pai nem se preocupou em perguntar o bĂĄsico. A pessoa pediu a transferĂȘncia para uma conta que nĂŁo estava no meu nome, mas ele nem ligou porque a voz era minha â contou Centurione.
@almanaquesos Cuidado com o golpe que imita voz (InteligĂȘncia Artificial), crie agora uma PALAVRA CHAVE #AprendaNoTikTok #EuTeEnsino AgoraVoceSabe
A compatibilidade da voz clonada era tĂŁo parecida com a voz natural do influenciador que o seu pai nĂŁo percebeu qualquer diferença, mesmo sendo mĂșsico e especialista em som. Entrando em um aplicativo, Centurione conseguiu facilmente criar uma cĂłpia da sua prĂłpria voz e decidiu repetir o experimento da jornalista do Wall Street Journal.
Fui checar se eu enganava alguĂ©m e nĂŁo sĂł consegui enganar o meu pai de novo, como a minha mĂŁe, que Ă© superdesconfiada. O meu irmĂŁo mais novo percebeu que a voz nĂŁo era minha. Ă um golpe que vai se sofisticar, em breve as ferramentas devem ser mais rĂĄpidas e eficientes, o que pode tornar as pessoas idosas vĂtimas com mais frequĂȘncia. Os mais jovens, atĂ© por conhecimento do potencial da tecnologia, estĂŁo mais atentos.
Para evitar cair no golpe, veja as dicas de especialistas
-Fique atento Ă veracidade das informaçÔes: antes de agir com base em uma chamada telefĂŽnica, mensagem ou vĂdeo, verifique as informaçÔes em outras fontes. Por exemplo, chamar de volta, confirmar por e-mail ou checar com outras pessoas que possam garantir a autenticidade.
-Proteja seus dados: minimize a quantidade de informaçÔes pessoais que vocĂȘ compartilha online. Ao fornecer menos dados, vocĂȘ diminui o material disponĂvel para os criminosos cibernĂ©ticos que desejam criar deepfakes ou imitarem sua voz.
-Eduque-se sobre a tecnologia: conhecer o funcionamento dessas tecnologias e estar ciente das Ășltimas tendĂȘncias e tĂĄticas de fraude pode ajudĂĄ-lo a se proteger melhor.
-Verifique a conta bancĂĄria: sempre confira os destinatĂĄrios ao enviar dinheiro para um familia
Clones de voz gerados em poucos dias
Ferramentas como a VALL-E, da Microsoft, conseguem criar ĂĄudios longos com apenas trĂȘs segundos de fala como referĂȘncia. A tecnologia Ă© capaz de sintetizar uma gravação de voz de alguĂ©m e transformar esse arquivo em outro, mantendo as caracterĂsticas originais, como o tom da fala.
O novo software foi disponibilizado no Ășltimo dia 20 de maio para quem tiver interesse, e serĂĄ cobrada uma taxa para utilização. A empresa Synthesia oferece o mesmo serviço. Ă possĂvel gravar um vĂdeo de 15 minutos e mandar para a ferramenta. Com base nesse vĂdeo, serĂĄ criado um clone virtual em apenas alguns dias. O custo anual para uso Ă© de US$ 1.000, mais uma assinatura mensal de US$ 30.
Segundo Lucas Cabral, analista de IA da Play9, ferramentas que criam ĂĄudios falsos sempre precisam de um âinputâ do usuĂĄrio, ou seja, do envio de um ĂĄudio ou vĂdeo que serĂĄ usado como base para a criação da cĂłpia.
EntĂŁo, se vocĂȘ quer que o Darth Vader leia um texto personalizado, Ă© mais fĂĄcil do que se a pretensĂŁo for copiar a voz de alguĂ©m que nĂŁo seja uma pessoa pĂșblica. Influenciadores, artistas e apresentadores â como Centurione â contam com horas e horas de falas publicadas na internet, entĂŁo, sĂŁo mais vulnerĂĄveis Ă criação dos clones de voz.
Pessoas pĂșblicas mais vulnerĂĄveis
A tecnologia Ă© a mesma usada em aplicativos de localização, por exemplo, em que vocĂȘ ouve personalidades como Silvio Santos indicando o caminho. Ă difĂcil imaginar que o apresentador tenha se gravado dizendo âvire Ă direitaâ, explica Cabral, mas hĂĄ grandes bancos de vĂdeos em que ele aparece falando.
Em resumo, vocĂȘ captura uma voz, coloca na ferramenta e ela identifica padrĂ”es para criar uma modificação. Realmente fica muito parecido com a original. VocĂȘ pode escrever algo e a ferramenta reproduz o texto em ĂĄudio com base em uma referĂȘncia jĂĄ enviada, ou a ferramenta pode gerar um ĂĄudio simultaneamente, em que vocĂȘ fala e ela vai alterando com base em uma referĂȘncia â explicou o especialista.
Essas tantas possibilidades maximizam as chances de golpes envolvendo informaçÔes pessoais. Pedro Diógenes, diretor técnico LATAM na empresa de segurança da informação CLM, conta que antigamente era necessårio ter uma grande quantidade de dados para treinar os algoritmos, com horas e horas de åudio das pessoas chorando, gritando e falando palavras diferentes.
Agora, com pouquĂssimos dados, Ă© possĂvel reproduzir fielmente a voz de alguĂ©m, imitando sotaque, choro e entonação.
â O golpista te estuda antes de dar o golpe, entĂŁo, imagine-o com a voz da sua filha. As pessoas terĂŁo que se educar (para evitar cair no golpe), combinando senhas que sĂł elas sabem para esses casos. A estratĂ©gia Ă© fazer perguntas.
O advogado Matheus Puppe, sócio da årea de TMT, Privacidade e Proteção de Dados do Maneira Advogados, explica que esse tipo de ferramenta abre margens para golpes ainda maiores.
A personificação de vozes jĂĄ foi usada para cometer fraudes financeiras, levando indivĂduos e empresas a realizarem transaçÔes com base em instruçÔes dadas por um telefonema falso, porĂ©m convincente.
â Por isso a necessidade de uma legislação robusta e uma regulamentação sensĂvel ao tema que possa equilibrar os avanços tecnolĂłgicos com a segurança e a privacidade necessĂĄrias. Precisamos de mecanismos de responsabilização mais efetivos para combater o uso indevido dessas tecnologias e, simultaneamente, promover a conscientização e a educação digital â disse o especialista.
