Vilões da inteligência artificial: 5 ameaças da nova tecnologia

Viés algorítmico, desemprego tecnológico e mais; Entenda mais sobre alguns dos riscos em potencial do desenvolvimento acelerado da IA sem uma regulação adequada

inteligência artificial (IA) está evoluindo em um ritmo cada vez mais acelerado, abrindo margem para gerar benefícios em diversos segmentos da sociedade, mas como toda nova tecnologia, traz uma série de riscos inerentes. Entre os problemas mais evidentes temos o viés algorítmico, que reforça preconceitos absorvidos dos dados de treinamento, e até o desemprego tecnológico, com muitos cargos podendo desaparecer em breve graças à nova tecnologia. O conceito de IA, surgido na década de 1930, trouxe consigo riscos que, embora debatidos desde então, só se tornaram palpáveis recentemente. Para evitar desinformação, o TechTudo listou 5 ameaças da IA e consultou especialistas da NVIDIAIntel e USP para analisá-las pragmaticamente, além de apresentar soluções da indústria para minimizar tais riscos.

— Foto: Gisele Souza/TechTudo

1. Viés Algorítmico

Por mais que tenhamos a tendência de acreditar que a inteligência artificial seja imparcial, na prática, ela não tem discernimento para estabelecer valores morais, e apenas reproduz os dados utilizados para treinamento. Considerando que vivemos em uma sociedade com uma série de preconceitos internalizados ao longo de séculos de discriminação, muitos deles acabam injetados nos modelos de treinamento. Isso porque, mesmo não sendo tecnicamente minorias, diversos grupos são sub-representados nos recortes populacionais, e esse preconceito estrutural acaba transportado para as IAs.

Marcos Barreto, professor da Fundação Vanzolini e da Poli (USP), define esse como “um grande risco e um problema sério”:

“Não é uma lei que vai resolver essa questão. O problema está nos dados, a curadoria dos dados é sempre uma coisa complexa. A gente, por outro lado, quer a maior quantidade de dados possível normalmente. Então, essa é uma questão complexa. (…). O que o sistema automático está fazendo é simplesmente amplificar esse preconceito e fazendo com que o crédito, por exemplo, seja negado, se você achar que a pessoa não vai pagar.”

Ao aprender com dados que refletem desigualdades, decisões por IA em contratações ou de busca por suspeitos de um crime, por exemplo, podem reforçar preconceitos com base em padrões discriminatórios do passado, ou por recortes de dados que refletem estatísticas, mas ignoram contextos socais. Como essa questão vai além de uma simples lei de regulamentação, cabe à própria indústria combater internamente o viés com medidas que mitiguem esses preconceitos. Nesse aspecto, Pietro Colloca, Especialista de Aplicações da Intel para a América Latina, é categórico:

“Em 2017, mesmo antes da IA ser tão prevalente como é agora, lançamos nosso programa de IA (RAI) responsável. Uma parte fundamental [dessa estratégia] é utilizar processos de revisão rigorosas e multidisciplinares em todo o ciclo de vida da IA, [utilizando] princípios de aterramento como: respeitar os direitos humanos, permitir supervisão humana, ativar a transparência e a explicabilidade, segurança avançada, proteção e confiabilidade, design para privacidade, promover equidade e inclusão, proteger o ambiente.”

2. Falta de Transparência

Outro problema atual é a chamada “caixa-preta” da IA, quando há uma tomada de decisão ou mesmo uma resposta de um chatbot, sem esclarecer os motivos ou referências da interação. Pensando em uma pesquisa acadêmica, uma resposta para um tema muito complexo pode eventualmente ser fruto de uma alucinação, quando a IA “inventa” respostas por uma interpretação equivocada de contextos. Não listar as referências impede que o usuário verifique se elas são legítimas ou de sites que, por exemplo, promovem desinformação, fazendo com que a ferramenta perca seu propósito enquanto facilitadora, gerando apenas um retrabalho para o usuário.

Para o professor Marcos Barreto, “esse não é um problema legal, ele não é um risco nesse sentido. Ele é, primeiro, um problema teórico, tentar entender por que aquela conclusão foi tirada.” A questão está relacionada principalmente ao próprio entendimento de como o nosso cérebro funciona, já que, de maneira geral, “nosso pensamento é linear e essas coisas acontecem todas em paralelo.” Essa falta de transparência acaba até sendo um agravante para o viés algorítmico. Então além de melhorar as ferramentas para, no mínimo, justificar as respostas, no caso das tomadas de decisão, é preciso estabelecer “mecanismos externos, (…) [como] um foro humano para reclamar, por exemplo, se eu me sentir prejudicado com uma decisão, para, por exemplo, uma concessão de crédito (…) [ser negada], eu poder fazer um recurso [a] ser analisado por um ser humano.”

Em resposta ao TechTudo, a NVIDIA esclareceu que “a transparência é fundamental para que a IA seja amplamente aceita e compreendida,” e por essa razão, promove “o desenvolvimento de tecnologias que oferecem maior explicação sobre os processos e decisões tomadas por sistemas de IA. (…) Defendemos que todas as organizações devem trabalhar para desenvolver sistemas que permitam uma compreensão clara de como as decisões são feitas, sem sacrificar a complexidade dos modelos.”

Com um entendimento similar do ponto, a Intel inclusive desenvolve frameworks de IA explicável (explainable AI), que ajudam os usuários a entender os critérios por trás das decisões automatizadas, como explica Pietro. “As Intel Explainable AI Tools (…) são ferramentas que podem ser utilizados por meio de uma interface gráfica (…) ou como uma API leve (…) integrada diretamente a outros programas ou fluxos de trabalho de IA.” A empresa ainda acredita que a regulamentação apropriada da IA tenha um papel relevante no sentido da transparência, enquanto “um esforço colaborativo (…) para desenvolver e compartilhar abordagens holísticas, melhores práticas, ferramentas e metodologias”.

3. Uso Malicioso

A inteligência artificial é uma ferramenta poderosa para promover avanços sociais, mas esse mesmo poder vira uma arma perigosa nas mãos de usuários mal-intencionados. A capacidade de gerar vídeos, imagens, e até reproduzir a voz de pessoas reais com linguagem natural, tornou os deepfakes cada vez mais comuns, especialmente para promover desinformação e atrair usuários para golpes e esquemas ilegais. Este é o ponto no qual uma regulamentação apropriada de uso da IA, seja mais urgente, no sentido de estabelecer ferramentas legais para lidar com atos criminosos praticados utilizando IA. Uma solução sugerida pelo professor da USP seria implementar nas novas ferramentas “algum tipo de assinatura digital” para identificar que um conteúdo foi gerado por IA.

Naturalmente, divulgar os dados do criador dos materiais sem autorização ou requerimento judicial pode incorrer em questões legais. Por outro lado, uma legislação adequada permitiria estabelecer que as assinaturas digitais de componentes de hardware, rastreáveis até por registros de compra, sejam inseridas nos metadados. Com isso, ao menos um dos campos de informações públicas poderia trazer marcadores abertos acusando se tratar de material gerado por IA. Dessa forma, mesmo sistemas automatizados em redes sociais conseguiriam acusar na publicação que aquele vídeo ou foto é produto de inteligência artificial, além se permitir identificar o criador quando necessário.

Enquanto isso não é incorporado, as próprias empresas estão investindo em ferramentas para auxiliar no combate ao uso indiscriminado de IA para gerar conteúdos maliciosos. Especificamente no caso da Intel, a empresa desenvolveu uma ferramenta “que pode detectar vídeos falsos com uma taxa de precisão de 96%”, o FakeCatcher. Segundo Pietro Colloca, a plataforma é um dos primeiros “detectores de deepfake em tempo real do mundo que retorna resultados em milissegundos”.

4. Desemprego Tecnológico

A automação por IA já substitui empregos humanos em muitos setores, principalmente em trabalhos que envolvem tarefas repetitivas. A ONU estima que até 40% dos empregos em todo o mundo podem ser afetados por essa transformação. Mesmo com o surgimento de novos postos de trabalho, a discrepância é imensa entre as habilidades exigidas pelos novos empregos e as competências da força de trabalho atual. Além disso, as limitações vão além da falta de letramento digital, e também envolvem questões sociais profundas. No entanto, mesmo o posicionamento do pesquisador da USP é relativamente otimista nesse sentido.

“Há um deslocamento, uma criação de muitos novos empregos, porque a economia se movimenta enormemente. Algumas pessoas vão, de fato, (…) ser movidas para outras posições, (…) outro emprego, uma outra posição dentro da mesma empresa. Mas no arco em que essas mudanças acontecem, quando a gente olha (…) a introdução da robótica nos anos 80, ela começou a se tornar relevante (…) na metade dos anos 90 e ainda hoje ela é pouco prevalente na maior parte das empresas. Ou seja, a velocidade, até pelo próprio custo da introdução dessas melhorias tecnológicas, acaba gerando um tempo usado para as pessoas que estavam trabalhando eventualmente se reciclarem, se aposentarem até e iniciar um novo ciclo tecnológico”, afirma o professor Marcos Barreto.

Do lado da indústria, tanto Intel quanto NVIDIA investem paralelamente em programas para capacitação e reciclagem de funcionários, não apenas em postos de trabalho que serão afetados pela IA, mas como um todo. Novamente, aqui temos um ponto que caberia ser incluído em um eventual marco legal da IA exigindo que empresas que adotarem as novas tecnologias precisam, de alguma forma, investir na reciclagem de suas equipes para garantir mobilidade de cargos e evitar demissões em massa.

5. Falhas de Segurança

Em uma análise do uso responsável da IA, o Fórum Econômico Mundial destaca que a segurança cibernética precisa ser uma prioridade desde a concepção dos sistemas. Erros em plataformas de IA podem ter consequências graves, desde o vazamento de dados pessoais até acidentes fatais envolvendo carros autônomos.

Pensando inicialmente na questão do tratamento de dados e treinamento dos modelos, para Marcos Barreto “há uma necessidade de ter algum nível de curadoria”, principalmente para lidar com as questões de direitos autorais. Contudo, o professor reconhece que, ainda que a preocupação nesse sentido tenha crescido com a chegada da IA, o problema é da internet como um todo.

“Essa questão acontece já há muitas décadas e a internet é basicamente sobre isso, o Google é basicamente sobre isso, não só o Google, não estou aqui falando mal de uma empresa, mas o fato é que das empresas que usam dados, é das que fazem isso há mais tempo, de uma forma mais incrível.”

Já no caso de acidentes com carros autônomos, por exemplo, as falhas são inerentes de qualquer tipo de tecnologia. O que precisa ser considerado é estabelecer um sistema com respaldo legal para haver uma responsabilização adequada. Do lado das fabricantes, tanto Intel quanto NVIDIA entendem que ambas as questões são relevantes, e que precisam ser abordadas coletivamente, em parcerias entre empresas, governos e órgãos regulatórios.

Resumidamente, a IA é uma nova ferramenta tecnológica como tantas outras que vieram antes, e tanto por isso, acaba levantando uma série de receios em relação a questões tanto de ordem prática, quanto social. Sendo assim, por mais que os riscos sejam reais, órgãos internacionais, pesquisadores, e as próprias empresas desenvolvendo essas tecnologias estão atentas aos problemas, e já vem atuando ativamente para mitigá-los, promovendo uma incorporação mais suave das novas ferramentas.

Com informações de Agência BrasilEl PaisFórum Econômico Mundial, Intel (Pietro Colloca, Especialista de Aplicações da Intel para a América Latina), NVIDIA, ONUOrganização para Cooperação e Desenvolvimento Econômico (OECD), Marcos Barreto, professor da Fundação Vanzolini e da Poli-USP

PUBLICIDADE