O ChatGPT já entrou de vez na rotina de milhões de usuários ao redor do mundo, que os utilizam para trabalhar, estudar ou apenas para matar um tempo. No entanto, poucos deles sabem que existem algumas informações que não devem ser compartilhadas com o chatbot de inteligência artificial (IA). Dados da sua empresa, artes pessoais ou patentes não registradas são exemplos de coisas que os internautas não podem enviar para a ferramenta da OpenAI, já que essas informações são utilizadas para treinar o sistema e, assim, trechos delas podem estar presentes em respostas futuras do chatbot.
Vale lembrar ainda que, em possíveis falhas de segurança, todos esses dados podem vazar e causar prejuízos. Por isso, inúmeras empresas já proibiram seus funcionários de usar a ferramenta para tarefas profissionais. A seguir, veja cinco coisas que você não pode compartilhar com o ChatGPT.
Por que não compartilhar dados sensíveis com o ChatGPT?
Como o ChatGPT é uma ferramenta de IA generativa, não é recomendável compartilhar dados sensíveis com a ferramenta. A OpenAI afirma que não utiliza os dados pessoais do usuário para vender serviços ou publicidade, mas as informações são usadas para deixar os modelos de linguagem mais funcionais, fazendo com que a conversa do chatbot atue como um treinamento adicional. Para evitar o problema, é possível desabilitar a opção “Chat history & training” na seção “Data controls”, que se encontra no menu “Configurações”.
Além disso, é possível que essas informações vazem ou que haja bugs no ChatGPT, como já aconteceu em alguns relatos. Logo, a recomendação é sempre evitar compartilhar dados sensíveis com a ferramenta da OpenAI.
Cinco coisas para não compartilhar com o ChatGPT
1. Dados da sua empresa
Muitos utilizam a IA generativa para auxiliar nas tarefas do trabalh, seja para organizar informações ou solucionar problemas de códigos, por exemplo. Contudo, deve-se ao máximo evitar compartilhar informações importantes da empresa, como dados sensíveis de funcionários ou fórmulas sigilosas, já que elas podem ser vazadas em possíveis falhas do ChatGPT. Além disso, caso um restaurante, por exemplo, tenha a receita de um prato em uma planilha e um trabalhador enviar o documento ao chatbot, pode ser que, no futuro, essa receita seja compartilhada com outro internauta, já que os dados compartilhados são usados para treinar a ferramenta.
Já existem alguns casos em que dados sigilosos de empresas foram vazados pelo ChatGPT, e isso causou até prejuízos. A Samsung, por exemplo, baniu o uso da ferramenta após descobrir que uma falha de segurança aconteceu porque um funcionário compartilhou uma informação sensível da empresa com o chatbot da OpenAI. Para evitar situações semelhantes, a Apple também bloqueou o uso de tecnologias com inteligência artificial para alguns de seus colaboradores.
2. Informações pessoais
Todo tipo de dado que serve para identificar uma pessoa não deve ser compartilhado em plataformas de inteligência artificial generativa. Isso porque, nas mãos de um hacker ou golpista virtual, informações como nome, data de nascimento, endereço, telefone, e-mail, número de documentos podem se tornar uma dor de cabeça.
Mesmo que o usuário tenha desabilitado o armazenamento de informações, impedindo que sejam usadas para treinar o modelo de linguagem, as plataformas estão suscetíveis a vazamentos e roubo de dados. Com isso, o usuário pode ficar exposto a crimes cibernéticos, como furto de identidade, estelionato e golpes.
3. Propriedade intelectual
Propriedade intelectual é o conceito relacionado à regulamentação, reconhecimento de autoria e proteção legal de uma obra. Projetos patenteados, obras literárias e segredos industriais estão respaldados por um conjunto de tratados que restringem seu uso. No entanto, compartilhar projetos que ainda não foram patentados com o ChatGPT pode resultar em problemas, já que o chatbot pode “roubar” suas ideias e compartilhá-las com outros usuários.
Mesmo obras patenteadas estão sujeitas ao uso do chatbot. Já existem, por exemplo, alguns processos abertos contra a OpenAI relacionados à quebra de direitos autorais. O caso mais famoso é a ação coletiva de 17 autores famosos, incluindo George R.R. Martin (Game of Thrones) e John Grisham (O Dossiê Pelicano), que acusam o site de usar suas obras sem autorização para treinar a inteligência artificial.
4. Dados bancários e financeiros
Os dados bancários e financeiros são informações sensíveis que devem ser mantidas em segurança e, por isso, não devem ser compartilhadas em plataformas com inteligência artificial generativa. Caso ocorra um vazamento e o número de cartão de crédito de um usuário for acessado, ele poderá ter sérios prejuízos financeiros. Além disso, criminosos podem usar o seu cartão para comprar itens ilegais, que podem manchar o seu nome perante a lei.
5. Artes pessoais
Seja um roteiro, poema ou até fotografias, pode ser difícil resistir ao desejo de pedir uma ajudinha da inteligência artificial para aprimorar um trabalho criativo. Contudo, não é indicado alimentar as ferramentas com conteúdos autorais. Afinal, a sua ideia original pode ser replicada em pesquisas de outros usuários, fazendo um conceito único se tornar público.