ChatGPT: 3 vezes em que a inteligência artificial foi ‘usada para o mal’

Uso do chatbot da OpenAI requer alguns cuidados; veja quatro vezes em que o ChatGPT foi mal utilizado e suas consequências

ChatGPT é capaz de responder às mais diversas solicitações, sendo capaz de auxiliar na organização e resolução de tarefas. Usuários já utilizaram o chatbot da OpenAI para planejar viagensaprender novos idiomas e até manter uma rotina de exercícios para perder peso. Apesar disso, a inteligência artificial (IA) tem seus lados negativos, que exigem certo cuidado.

Em maio deste ano, por exemplo, um chinês foi preso depois de usar o ChatGPT com o intuito de espalhar fake news e gerar pânico. Além disso, nesse mesmo mês, a Samsung proibiu seus funcionários de usarem o chatbot no trabalho depois de detectar que a causa de um vazamento de dados foi provocado pela plataforma. Por conta desse episódio, outras empresas, como Amazon e Apple, também passaram a proibir o uso da IA por temerem o vazamento de dados sigilosos. Na lista a seguir, veja três vezes em que o ChatGPT foi mau utilizado e suas consequências.

Chinês foi preso após usar o chatbot para espalhar fake news

 

No começo de maio, um homem foi preso depois de usar o ChatGPT para disseminar notícias falsas, na China. De acordo com investigações da polícia local, o jovem, identificado como Hong, usou o chatbot da OpenAI para gerar um relatório falso sobre uma colisão entre trens. Segundo os oficiais, ele postou o conteúdo na internet — que já acumulava mais de 15 mil visualizações — para obter lucros e “causar problemas”.

É importante destacar que acidentes de trem são considerados um assunto delicado na China. Em 2011, uma colisão envolvendo um trem-bala deixou cerca de 40 mortos na cidade de Wenzhou e não foi coberto pela mídia, o que fez o governo chinês sofrer grande pressão. Além disso, o ChatGPT também foi banido na China em meados de fevereiro. O governo do país alegou que o chatbot pudesse ser usado para espalhar desinformação e influenciar a opinião pública para fins políticos.

De acordo com a polícia, por conta da proibição, o homem usava uma VPN para conseguir acessar a ferramenta. Segundo as autoridades locais, Hong foi a primeira pessoa a ser presa na China desde que o país decretou novas regras de combate às deepfakes.

Estudantes britânicos foram investigados por plágio

No Reino Unido, quase 400 estudantes estão sendo investigados por plágio depois de supostamente usarem o ChatGPT para concluir trabalhos acadêmicos. A prática, além de ser considerada antiética, é também ilegal em muitos países. No Brasil, por exemplo, plágio é considerado crime e tem pena prevista de de três meses a um ano de reclusão, além do pagamento de multa.

Segundo informações do tabloide Metro, 40% das universidades britânicas admitiram que sofrem com o problema, mas os números podem ser ainda maiores dada a facilidade de uso dos programas. Além disso, algumas das instituições admitiram receio em revelar os flagrantes com medo de que a notícia pudesse manchar a reputação de seus cursos.

Até o momento, 377 alunos foram acusados de usar o chatbot da OpenAI para “colar” em suas avaliações acadêmicas. Segundo o portal, cerca de 146 foram declarados “culpados” e cerca de 22 alunos tiveram suas notas zeradas — o que pode ter impacto bastante negativo em suas vidas acadêmicas. Agora, as instituições consideram usar softwares “anti-plágio” para identificar o uso de chatbots em trabalhos acadêmicos.

Advogado americano usou ChatGPT para fazer pesquisa jurídica

Outro caso recente também chamou atenção nas redes depois que um advogado usou o ChatGPT para fazer uma pesquisa jurídica, nos Estados Unidos. O caso aconteceu em maio, quando Steven A. Schwartz, um advogado que exercia a profissão há mais de 30 anos, usou a IA para obter informações que o ajudassem a defender seu cliente.

Advogado que usou ChatGPT para fazer pesquisa jurídica deve pagar multa de R$ 24 mil — Foto: Reprodução/The New York Times

Advogado que usou ChatGPT para fazer pesquisa jurídica deve pagar multa de R$ 24 mil — Foto: Reprodução/The New York Times

Acontece que as respostas fornecidas pelo chatbot eram irreais e, por terem sido apresentadas diante de um juiz, Steven precisou prestar esclarecimentos à justiça. Ele declarou que “não tinha ciência” de que o ChatGPT pudesse fornecer informações falsas, mas o juiz determinou, em audiência, que ele violou um “preceito básico” do sistema jurídico americano ao levar informações falsas à corte. Por conta disso, Steven foi obrigado a pagar uma multa de US$ 5 mil (aproximadamente R$ 24 mil).

Samsung proibiu uso do ChatGPT após vazamento de dados

Outro ponto que tem levantando questionamentos acerca do mau uso do ChatGPT é o vazamento de dados. No início de maio, a Samsung declarou o banimento do software em todos os ambientes da empresa após informações confidenciais terem vazado através da plataforma. Em abril, funcionários da companhia acabaram fazendo o upload de dados internos no ChatGPT, o que causou o vazamento das informações.

Pouco tempo depois, a Apple também anunciou a proibição do uso do software por temer que os conteúdos inseridos nos chatbots pudessem vazar ou fossem coletados por terceiros. A Amazon também tomou uma atitude semelhante, restringindo o uso da plataforma em ambientes de trabalho.

Com informações de CNNTechCrunchBusiness Insider e The Verge

PUBLICIDADE