Valor Econômico, v. 20, n. 4893 04/12/2019. Brasil, p. A2
 

Quando os algoritmos sabem demais
João Luiz Rosa

 

A maioria das aplicações atuais de inteligência artificial (IA) parece bem conveniente para os consumidores. Ficamos satisfeitos quando a Netflix acerta ao fazer sugestões de filmes e séries - “como eles sabem o meu gosto?”, pensamos - ou quando o YouTube identifica o vídeo que estamos procurando antes de terminarmos de digitar na barra de busca. E mesmo quando soa um pouco irritante, a IA parece inofensiva. É chato ver anúncios de batedeira em todos os sites que frequentamos, durante dias, só porque pesquisamos sobre o produto. Mas esse parece um preço pequeno diante da comodidade proporcionada pelos algoritmos.

O risco parece incomparavelmente maior, no entanto, quando pensamos nesse tipo de inovação como cidadãos, em vez de consumidores. O uso da inteligência artificial tem se intensificado rapidamente em governos de diversos países, numa tentativa das autoridades de exercer mais controle sobre a vida dos indivíduos. A ameaça é que algoritmos capazes de “adivinhar” a intenção das pessoas, combinados a sistemas de vigilância e softwares de reconhecimento de face, deem origem aos mecanismos de manipulação social e repressão política mais eficazes da história até agora.

No futuro, não haverá rostos desconhecidos, e isso é perigoso.No domingo, entrou em vigor na China uma regra que obriga os usuários de celulares a se submeter a exames de reconhecimento facial ao registrar novos cartões SIM - os chips dos aparelhos. As diretrizes exigem que as operadoras de telecomunicações adotem inteligência artificial para identificar o rosto das pessoas, elevando a escalada desse tipo de  documento. Da mesma maneira, muitas redes sociais chinesas obrigam os clientes a se registrarem nos serviços com seus nomes reais, informando seus números de telefone, observou o jornal britânico “The Guardian”.

Não há dúvida sobre os potenciais benefícios do reconhecimento de face na área de segurança. Conjuntos de câmeras podem, hoje, colher informações em tempo real e depois compará-las com bases de dados da polícia, identificando suspeitos de crimes em meio à multidão. Em março, um foragido da polícia foi preso em Salvador, enquanto esperava na fila para entrar em um circuito carnavalesco. O sistema analisou 3 milhões de rostos e indicou 94% de similaridade, mesmo com o suspeito usando peruca, maquiagem e chapéu.

O folião foragido, acusado de assassinato, se preparava para desfilar no bloco “As Muquiranas”, vestido de mulher. Esse índice de acerto ganha ares mais sinistros, porém, quando se pensa o que governos autoritários poderão fazer com a tecnologia para suprimir liberdades individuais, em vez de punir criminosos ou combater o terrorismo.

Em recente visita ao Brasil, para um seminário promovido pelo Valor, o historiador israelense Yuval Harari traçou cenários preocupantes sobre o risco das ditaduras digitais. No programa de TV “Roda Viva”, afirmou que o governo poderá saber que um adolescente é gay antes que o mesmo tenha certeza disso. Tecnologias que acompanham o movimento dos olhos diante da tela do computador poderão detectar que, ao assistir um vídeo no YouTube de um rapaz e uma moça na praia, em trajes de banho, os olhos do garoto repetidamente se fixam no corpo do homem, disse Harari. Para especialistas em marketing, essa informação é útil para fazer anúncios dirigidos, mas em países em que a homossexualidade  é crime, poderia levar o governo a investigar e, eventualmente, punir o adolescente por suas reações inconscientes.

Em 2012, o “New York Times” narrou um episódio que se tornou um clássico instantâneo da era do marketing digital. Ao analisar 20 produtos diferentes, a rede varejista Target percebeu que muitas mulheres grávidas davam preferência a alguns itens, como cremes e colônias sem perfume. Então, passou a oferecer cupons de desconto a essas consumidoras.  O pai de uma adolescente de Minneapolis que recebera o incentivo se sentiu ofendido e foi reclamar em uma loja física da empresa. Disse que a filha ainda era estudante e que essa abordagem era imprópria para uma moça daquela idade. Dias depois, quando o gerente da loja ligou para se desculpar, foi o pai quem se retratou. A garota realmente estava grávida e a Target percebera isso antes da família.

Pode-se argumentar que, como em outras questões de cidadania, o tratamento dispensado à privacidade dependerá dos governos nacionais, com graus de liberdade diferentes entre os países. No mundo globalizado, no entanto, é impossível ignorar que a interdependência tecnológica é inevitável. Dias atrás, o jornal britânico “Financial Times” publicou reportagem na qual afirma, com base em documentos, que empresas chinesas de tecnologia estão tentando moldar os novos padrões de reconhecimento facial e vigilância nas Nações Unidas para garantir vantagens comerciais nos negócios com outros países.

Segundo o “Financial Times”, empresas como ZTE, Dahua e China Telecom estão entre as mais ativas nas propostas de especificações da União Internacional de Telecomunicações (UIT). A Europa e a América do Norte têm órgãos próprios de normas, mas nas demais regiões a tendência é que os países sigam as regras da UIT, pondera o jornal. Milhões de rostos africanos já teriam sido enviados à empresa chinesa CloudWalk, de tecnologia de reconhecimento de face, depois de o governo do Zimbábue fechar um acordo com a companhia.

O receio dos grupos de defesa de direitos civis é que modelos tecnológicos defendidos pelas empresas chinesas, como alguns sistemas inteligentes de iluminação, sejam usados em outros países para rastrear cidadãos descontentes com o regime vigente, exatamente como ocorreu nos protestos de Hong Kong neste ano. No futuro, não haverá rostos  desconhecidos - e isso pode ser muito perigoso.