VilĂ”es da inteligĂȘncia artificial: 5 ameaças da nova tecnologia

Viés algorítmico, desemprego tecnológico e mais; Entenda mais sobre alguns dos riscos em potencial do desenvolvimento acelerado da IA sem uma regulação adequada

Por Tech Tudo 16/12/2024

A inteligĂȘncia artificial (IA) estĂĄ evoluindo em um ritmo cada vez mais acelerado, abrindo margem para gerar benefĂ­cios em diversos segmentos da sociedade, mas como toda nova tecnologia, traz uma sĂ©rie de riscos inerentes. Entre os problemas mais evidentes temos o viĂ©s algorĂ­tmico, que reforça preconceitos absorvidos dos dados de treinamento, e atĂ© o desemprego tecnolĂłgico, com muitos cargos podendo desaparecer em breve graças Ă  nova tecnologia. O conceito de IA, surgido na dĂ©cada de 1930, trouxe consigo riscos que, embora debatidos desde entĂŁo, sĂł se tornaram palpĂĄveis recentemente. Para evitar desinformação, o TechTudo listou 5 ameaças da IA e consultou especialistas da NVIDIA, Intel e USP para analisĂĄ-las pragmaticamente, alĂ©m de apresentar soluçÔes da indĂșstria para minimizar tais riscos.

IA CHATGPT

— Foto: Gisele Souza/TechTudo

1. Viés Algorítmico

Por mais que tenhamos a tendĂȘncia de acreditar que a inteligĂȘncia artificial seja imparcial, na prĂĄtica, ela nĂŁo tem discernimento para estabelecer valores morais, e apenas reproduz os dados utilizados para treinamento. Considerando que vivemos em uma sociedade com uma sĂ©rie de preconceitos internalizados ao longo de sĂ©culos de discriminação, muitos deles acabam injetados nos modelos de treinamento. Isso porque, mesmo nĂŁo sendo tecnicamente minorias, diversos grupos sĂŁo sub-representados nos recortes populacionais, e esse preconceito estrutural acaba transportado para as IAs.

Marcos Barreto, professor da Fundação Vanzolini e da Poli (USP), define esse como “um grande risco e um problema sĂ©rio”:

“NĂŁo Ă© uma lei que vai resolver essa questĂŁo. O problema estĂĄ nos dados, a curadoria dos dados Ă© sempre uma coisa complexa. A gente, por outro lado, quer a maior quantidade de dados possĂ­vel normalmente. EntĂŁo, essa Ă© uma questĂŁo complexa. (…). O que o sistema automĂĄtico estĂĄ fazendo Ă© simplesmente amplificar esse preconceito e fazendo com que o crĂ©dito, por exemplo, seja negado, se vocĂȘ achar que a pessoa nĂŁo vai pagar.”

Ao aprender com dados que refletem desigualdades, decisĂ”es por IA em contrataçÔes ou de busca por suspeitos de um crime, por exemplo, podem reforçar preconceitos com base em padrĂ”es discriminatĂłrios do passado, ou por recortes de dados que refletem estatĂ­sticas, mas ignoram contextos socais. Como essa questĂŁo vai alĂ©m de uma simples lei de regulamentação, cabe Ă  prĂłpria indĂșstria combater internamente o viĂ©s com medidas que mitiguem esses preconceitos. Nesse aspecto, Pietro Colloca, Especialista de AplicaçÔes da Intel para a AmĂ©rica Latina, Ă© categĂłrico:

“Em 2017, mesmo antes da IA ser tĂŁo prevalente como Ă© agora, lançamos nosso programa de IA (RAI) responsĂĄvel. Uma parte fundamental [dessa estratĂ©gia] Ă© utilizar processos de revisĂŁo rigorosas e multidisciplinares em todo o ciclo de vida da IA, [utilizando] princĂ­pios de aterramento como: respeitar os direitos humanos, permitir supervisĂŁo humana, ativar a transparĂȘncia e a explicabilidade, segurança avançada, proteção e confiabilidade, design para privacidade, promover equidade e inclusĂŁo, proteger o ambiente.”

2. Falta de TransparĂȘncia

Outro problema atual Ă© a chamada “caixa-preta” da IA, quando hĂĄ uma tomada de decisĂŁo ou mesmo uma resposta de um chatbot, sem esclarecer os motivos ou referĂȘncias da interação. Pensando em uma pesquisa acadĂȘmica, uma resposta para um tema muito complexo pode eventualmente ser fruto de uma alucinação, quando a IA “inventa” respostas por uma interpretação equivocada de contextos. NĂŁo listar as referĂȘncias impede que o usuĂĄrio verifique se elas sĂŁo legĂ­timas ou de sites que, por exemplo, promovem desinformação, fazendo com que a ferramenta perca seu propĂłsito enquanto facilitadora, gerando apenas um retrabalho para o usuĂĄrio.

Para o professor Marcos Barreto, “esse nĂŁo Ă© um problema legal, ele nĂŁo Ă© um risco nesse sentido. Ele Ă©, primeiro, um problema teĂłrico, tentar entender por que aquela conclusĂŁo foi tirada.” A questĂŁo estĂĄ relacionada principalmente ao prĂłprio entendimento de como o nosso cĂ©rebro funciona, jĂĄ que, de maneira geral, “nosso pensamento Ă© linear e essas coisas acontecem todas em paralelo.” Essa falta de transparĂȘncia acaba atĂ© sendo um agravante para o viĂ©s algorĂ­tmico. EntĂŁo alĂ©m de melhorar as ferramentas para, no mĂ­nimo, justificar as respostas, no caso das tomadas de decisĂŁo, Ă© preciso estabelecer “mecanismos externos, (…) [como] um foro humano para reclamar, por exemplo, se eu me sentir prejudicado com uma decisĂŁo, para, por exemplo, uma concessĂŁo de crĂ©dito (…) [ser negada], eu poder fazer um recurso [a] ser analisado por um ser humano.”

Em resposta ao TechTudo, a NVIDIA esclareceu que “a transparĂȘncia Ă© fundamental para que a IA seja amplamente aceita e compreendida,” e por essa razĂŁo, promove “o desenvolvimento de tecnologias que oferecem maior explicação sobre os processos e decisĂ”es tomadas por sistemas de IA. (…) Defendemos que todas as organizaçÔes devem trabalhar para desenvolver sistemas que permitam uma compreensĂŁo clara de como as decisĂ”es sĂŁo feitas, sem sacrificar a complexidade dos modelos.”

Com um entendimento similar do ponto, a Intel inclusive desenvolve frameworks de IA explicĂĄvel (explainable AI), que ajudam os usuĂĄrios a entender os critĂ©rios por trĂĄs das decisĂ”es automatizadas, como explica Pietro. “As Intel Explainable AI Tools (…) sĂŁo ferramentas que podem ser utilizados por meio de uma interface grĂĄfica (…) ou como uma API leve (…) integrada diretamente a outros programas ou fluxos de trabalho de IA.” A empresa ainda acredita que a regulamentação apropriada da IA tenha um papel relevante no sentido da transparĂȘncia, enquanto “um esforço colaborativo (…) para desenvolver e compartilhar abordagens holĂ­sticas, melhores prĂĄticas, ferramentas e metodologias”.

3. Uso Malicioso

A inteligĂȘncia artificial Ă© uma ferramenta poderosa para promover avanços sociais, mas esse mesmo poder vira uma arma perigosa nas mĂŁos de usuĂĄrios mal-intencionados. A capacidade de gerar vĂ­deos, imagens, e atĂ© reproduzir a voz de pessoas reais com linguagem natural, tornou os deepfakes cada vez mais comuns, especialmente para promover desinformação e atrair usuĂĄrios para golpes e esquemas ilegais. Este Ă© o ponto no qual uma regulamentação apropriada de uso da IA, seja mais urgente, no sentido de estabelecer ferramentas legais para lidar com atos criminosos praticados utilizando IA. Uma solução sugerida pelo professor da USP seria implementar nas novas ferramentas “algum tipo de assinatura digital” para identificar que um conteĂșdo foi gerado por IA.

Naturalmente, divulgar os dados do criador dos materiais sem autorização ou requerimento judicial pode incorrer em questĂ”es legais. Por outro lado, uma legislação adequada permitiria estabelecer que as assinaturas digitais de componentes de hardware, rastreĂĄveis atĂ© por registros de compra, sejam inseridas nos metadados. Com isso, ao menos um dos campos de informaçÔes pĂșblicas poderia trazer marcadores abertos acusando se tratar de material gerado por IA. Dessa forma, mesmo sistemas automatizados em redes sociais conseguiriam acusar na publicação que aquele vĂ­deo ou foto Ă© produto de inteligĂȘncia artificial, alĂ©m se permitir identificar o criador quando necessĂĄrio.

Enquanto isso nĂŁo Ă© incorporado, as prĂłprias empresas estĂŁo investindo em ferramentas para auxiliar no combate ao uso indiscriminado de IA para gerar conteĂșdos maliciosos. Especificamente no caso da Intel, a empresa desenvolveu uma ferramenta “que pode detectar vĂ­deos falsos com uma taxa de precisĂŁo de 96%”, o FakeCatcher. Segundo Pietro Colloca, a plataforma Ă© um dos primeiros “detectores de deepfake em tempo real do mundo que retorna resultados em milissegundos”.

4. Desemprego TecnolĂłgico

A automação por IA jĂĄ substitui empregos humanos em muitos setores, principalmente em trabalhos que envolvem tarefas repetitivas. A ONU estima que atĂ© 40% dos empregos em todo o mundo podem ser afetados por essa transformação. Mesmo com o surgimento de novos postos de trabalho, a discrepĂąncia Ă© imensa entre as habilidades exigidas pelos novos empregos e as competĂȘncias da força de trabalho atual. AlĂ©m disso, as limitaçÔes vĂŁo alĂ©m da falta de letramento digital, e tambĂ©m envolvem questĂ”es sociais profundas. No entanto, mesmo o posicionamento do pesquisador da USP Ă© relativamente otimista nesse sentido.

“HĂĄ um deslocamento, uma criação de muitos novos empregos, porque a economia se movimenta enormemente. Algumas pessoas vĂŁo, de fato, (…) ser movidas para outras posiçÔes, (…) outro emprego, uma outra posição dentro da mesma empresa. Mas no arco em que essas mudanças acontecem, quando a gente olha (…) a introdução da robĂłtica nos anos 80, ela começou a se tornar relevante (…) na metade dos anos 90 e ainda hoje ela Ă© pouco prevalente na maior parte das empresas. Ou seja, a velocidade, atĂ© pelo prĂłprio custo da introdução dessas melhorias tecnolĂłgicas, acaba gerando um tempo usado para as pessoas que estavam trabalhando eventualmente se reciclarem, se aposentarem atĂ© e iniciar um novo ciclo tecnolĂłgico”, afirma o professor Marcos Barreto.

Do lado da indĂșstria, tanto Intel quanto NVIDIA investem paralelamente em programas para capacitação e reciclagem de funcionĂĄrios, nĂŁo apenas em postos de trabalho que serĂŁo afetados pela IA, mas como um todo. Novamente, aqui temos um ponto que caberia ser incluĂ­do em um eventual marco legal da IA exigindo que empresas que adotarem as novas tecnologias precisam, de alguma forma, investir na reciclagem de suas equipes para garantir mobilidade de cargos e evitar demissĂ”es em massa.

5. Falhas de Segurança

Em uma anĂĄlise do uso responsĂĄvel da IA, o FĂłrum EconĂŽmico Mundial destaca que a segurança cibernĂ©tica precisa ser uma prioridade desde a concepção dos sistemas. Erros em plataformas de IA podem ter consequĂȘncias graves, desde o vazamento de dados pessoais atĂ© acidentes fatais envolvendo carros autĂŽnomos.

Pensando inicialmente na questĂŁo do tratamento de dados e treinamento dos modelos, para Marcos Barreto “hĂĄ uma necessidade de ter algum nĂ­vel de curadoria”, principalmente para lidar com as questĂ”es de direitos autorais. Contudo, o professor reconhece que, ainda que a preocupação nesse sentido tenha crescido com a chegada da IA, o problema Ă© da internet como um todo.

“Essa questĂŁo acontece jĂĄ hĂĄ muitas dĂ©cadas e a internet Ă© basicamente sobre isso, o Google Ă© basicamente sobre isso, nĂŁo sĂł o Google, nĂŁo estou aqui falando mal de uma empresa, mas o fato Ă© que das empresas que usam dados, Ă© das que fazem isso hĂĄ mais tempo, de uma forma mais incrĂ­vel.”

Jå no caso de acidentes com carros autÎnomos, por exemplo, as falhas são inerentes de qualquer tipo de tecnologia. O que precisa ser considerado é estabelecer um sistema com respaldo legal para haver uma responsabilização adequada. Do lado das fabricantes, tanto Intel quanto NVIDIA entendem que ambas as questÔes são relevantes, e que precisam ser abordadas coletivamente, em parcerias entre empresas, governos e órgãos regulatórios.

Resumidamente, a IA é uma nova ferramenta tecnológica como tantas outras que vieram antes, e tanto por isso, acaba levantando uma série de receios em relação a questÔes tanto de ordem pråtica, quanto social. Sendo assim, por mais que os riscos sejam reais, órgãos internacionais, pesquisadores, e as próprias empresas desenvolvendo essas tecnologias estão atentas aos problemas, e jå vem atuando ativamente para mitigå-los, promovendo uma incorporação mais suave das novas ferramentas.

Com informaçÔes de AgĂȘncia Brasil, El Pais, FĂłrum EconĂŽmico Mundial, Intel (Pietro Colloca, Especialista de AplicaçÔes da Intel para a AmĂ©rica Latina), NVIDIA, ONU, Organização para Cooperação e Desenvolvimento EconĂŽmico (OECD), Marcos Barreto, professor da Fundação Vanzolini e da Poli-USP

Bloqueador de anuncios detectado

Por favor, considere apoiar nosso trabalho desativando a extensĂŁo de AdBlock em seu navegador ao acessar nosso site. Isso nos ajuda a continuar oferecendo conteĂșdo de qualidade gratuitamente.