Taylor Swift é vítima de pornografia por IA e fãs denunciam crime; entenda

“Protect Taylor Swift” ficou em alta no Twitter (X) nesta quinta-feira (25) devido a fãs que se mobilizaram para denunciar os conteúdos criminosos; entenda o caso

Taylor Swift é mais uma figura pública vítima de pornografia fake. Fotos explícitas da cantora estadunidense geradas com inteligência artificial (IA) têm circulado nas redes sociais nesta quinta-feira (25), levando o termo “Protect Taylor Swift” para os trends do Twitter (X). A tag foi criada por fãs para identificar os usuários que compartilham as fotos criminosas e, assim, denunciá-los em conjunto. No Brasil, a lei penaliza quem manipula ou divulga conteúdos sexuais de terceiros, mesmo que sejam fakes. A seguir, entenda o caso e saiba como denunciar.

Taylor Swift é vítima de pornografia por IA e fãs denunciam crime; entenda — Foto: Reprodução/Disney+

Taylor Swift é vítima de pornografia por IA e fãs denunciam crime; entenda — Foto: Reprodução/Disney+

Nesta quinta-feira (25), os fãs da cantora Taylor Swift se assustaram ao abrir as redes sociais e se deparar com fotos pornográficas da artista. As imagens criadas por IA retratam cenas sexuais e têm sido compartilhadas por diferentes usuários e bots — que não serão divulgados nesta matéria — do Twitter (X). Alguns dos conteúdos criminosos até já foram retirados do ar pela rede social, mas isso não foi suficiente para conter os ataques.

Em resposta à prática ilegal desses internautas, fãs da Taylor Swift criaram a tag “Protect Taylor Swift”, que entrou nos trends do Twitter. O termo é utilizado para identificar os internautas que compartilham as imagens e, após reconhecê-los, os “Swifties” denunciam o conteúdo em conjunto para que ele seja retirado da plataforma.

Para denunciar um tuíte, é preciso selecionar os três pontinhos e, depois, a opção “Denunciar post”. Em seguida, basta seguir o caminho “Abuso e Assédio” → “Próximo” → “Conteúdo sexual indesejado ou objetificação gráfica” → “Enviar”.

Manipular e compartilhar fotos sexuais com IA, no Brasil, é crime

Criar ou manipular uma foto com inteligência artificial para fins pornográficos é crime no Brasil, com direito a pena de reclusão e multa. Além disso, apenas compartilhar as imagens fakes também é ilegal. Confira os artigos 216-B e 218-C do Decreto Lei nº 2.848.

  • 216-B: Produzir, fotografar, filmar ou registrar, por qualquer meio, conteúdo com cena de nudez ou ato sexual ou libidinoso de caráter íntimo e privado sem autorização dos participantes (…). Na mesma pena incorre quem realiza montagem em fotografia, vídeo, áudio ou qualquer outro registro com o fim de incluir pessoa em cena de nudez ou ato sexual ou libidinoso de caráter íntimo. Detenção de seis meses a um ano e multa.
  • 218-C: Oferecer, trocar, disponibilizar, transmitir, vender ou expor à venda, distribuir, publicar ou divulgar, por qualquer meio – inclusive por meio de comunicação de massa ou sistema de informática ou telemática -, fotografia, vídeo ou outro registro audiovisual que contenha cena de estupro ou de estupro de vulnerável ou que faça apologia ou induza a sua prática, ou, sem o consentimento da vítima, cena de sexo, nudez ou pornografia. Reclusão de um a cinco anos.

 

PUBLICIDADE