A Human Rights Watch (HRW), entidade internacional de defesa dos direitos humanos ao redor do mundo, revelou em relatório divulgado nesta segunda-feira (10), ter encontrado fotos de crianças brasileiras utilizadas indevidamente para alimentar IA (Inteligência Artificial) de cunho sexual.
Inicialmente, foram encontradas 170 fotos postadas em redes sociais por pais ou outros familiares em contextos diferente do que está sendo armazenado ilegalmente através da IA, sem que os responsáveis tinham conhecimento da legalidade.
As irregularidades foram detectados com fotografias de crianças de pelo menos dez estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo Não há informações de fotografias de crianças do Acre.
De acordo com o relatório, essas fotos são pegas na web e inseridas em um grande conjunto de dados que as empresas usam para treinar seus algoritmos. Há ainda quem use a ferramenta para criar deepfakes maliciosos que colocam ainda mais crianças em risco de exploração e danos.
A análise da Human Rights Watch descobriu que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA e construído a partir da raspagem de grande parte da internet, contém links para fotos identificáveis de crianças brasileiras.
Os nomes de algumas crianças estão listados nas respectivas legendas ou na URL onde a imagem está armazenada. Em muitos casos, suas identidades são facilmente rastreáveis, incluindo informações sobre quando e onde a criança estava no momento que a foto foi tirada.
Uma dessas fotos mostra uma menina de 2 anos com os lábios entreabertos de admiração enquanto toca os dedinhos de sua irmã recém-nascida. A legenda e as informações incorporadas na foto revelam não apenas os nomes das duas crianças, mas também o nome e a localização exata do hospital em Santa Catarina onde o bebê nasceu há nove anos, em uma tarde de inverno.
“Crianças e adolescentes não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra eles”, disse Hye Jung Han, pesquisadora de direitos da criança e tecnologia da Human Rights Watch. “O governo deveria adotar urgentemente políticas para proteger os dados das crianças contra uso indevido impulsionado por IA”, acrescentou.
De acordo com a Human Rights Watch, é provável que o número esteja subnotificado, visto que foram analisadas menos de 0,0001% dos 5,85 bilhões de imagens e legendas contidas no conjunto de dados do LAION-5B.
As fotos analisadas abrangem toda a infância e adolescência, capturando momentos íntimos de bebês nascendo nas mãos enluvadas de médicos; crianças pequenas soprando velas no seu bolo de aniversário ou dançando de cueca e calcinha em casa; estudantes fazendo uma apresentação na escola; e adolescentes posando para fotos no Carnaval de seu colégio.
Muitas dessas fotos foram vistas originalmente por poucas pessoas e parece que tinham alguma medida de privacidade anteriormente. Não parece ser possível encontrá-las por meio de uma pesquisa on-line. Algumas dessas fotos foram postadas por crianças e adolescentes, seus pais ou familiares em blogs pessoais e sites de compartilhamento de fotos e vídeos. Algumas foram postadas anos ou até mesmo uma década antes da criação do LAION-5B.
O treinamento em fotos de crianças reais tem permitido que os modelos de IA criem clones convincentes de qualquer menor de 18 anos com base em várias fotos ou até mesmo em uma única imagem. Isso, segundo a ONG, amplia substancialmente o risco de manipulação de imagens por pessoas mal intencionadas.
A LAION, organização alemã sem fins lucrativos que gerencia o LAION-5B, confirmou que o conjunto de dados continha as fotos pessoais das crianças encontradas pela Human Rights Watch e se comprometeu a removê-las. Ela contestou que os modelos de IA treinados no LAION-5B pudessem reproduzir dados pessoais literalmente.
A LAION também disse que as crianças e seus responsáveis são responsáveis por remover suas fotos pessoais da internet, argumentando ser a proteção mais eficaz contra o uso indevido. A afirmação, no entanto, é rebatida pela Human Rights Watch, que afirma que essa segurança precisa estar fundamentada em leis.
A ONG relembra que o Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda), em abril deste ano, publicou resolução que orienta que o conselho e o Ministério dos Direitos Humanos e Cidadania desenvolvam uma política nacional para proteger os direitos das crianças e dos adolescentes no ambiente digital.
A medida é necessária, segundo a organização, porque da forma como está redigida, a Lei Geral de Proteção de Dados Pessoais do Brasil não oferece proteção suficiente para as crianças.
A Humans Rights Watch ainda destaca que o governo deveria fornecer mecanismos às crianças que sofrerem danos para buscar justiça e reparação significativa.