O Globo, n. 32778, 05/05/2023. Economia, p. 17

Pressão por regras

Eliane Oliveira
Renan Monteiro
Glauce Cavalcanti


A Casa Branca pressionou ontem CEOs de empresas de tecnologia a limitarem os riscos da inteligência artificial (IA), em resposta aos apelos para regulamentar a nova tecnologia. Em uma reunião que durou mais de duas horas, a vice-presidente dos EUA, Kamala Harris, disse aos executivos de Microsoft, Alphabet (dona do Google), OpenAI (a criadora do popular ChatGPT) e Anthropic, uma startup de IA, que considerem seriamente impor limites à tecnologia.

“O setor privado tem uma responsabilidade ética, moral e legal de garantir a segurança de seus produtos”, afirmou Kamala em um comunicado. “E todas as empresas têm de cumprir as leis existentes que protegem a população americana.”

A maior preocupação da Casa Branca é com as chamadas ferramentas de IA generativa, capazes de criar textos e imagens extremamente semelhantes aos produzidos por humanos. Kamala ressaltou que as empresas devem trabalhar com o governo para garantir salvaguardas que protejam os direitos civis e a privacidade das pessoas, além de evitar desinformação ou fraudes.

“Governo, empresas privadas e outros membros da sociedade devem enfrentar esses desafios juntos”, afirmou ela. “O presidente (Joe) Biden e eu estamos comprometidos em fazer nossa parte — inclusive avançando em possíveis novas regulamentações e apoiando novas legislações — para que todos possam se beneficiar com segurança das inovações tecnológicas.”

Biden fez uma breve aparição na reunião, que incluiu os CEOs Sam Altman (OpenAI), Dario Amodei (Anthropic), Satya Nadella (Microsoft) e Sundar Pichai (Alphabet), além de altos funcionários do governo.

— O que vocês estão fazendo tem um enorme potencial e um enorme risco — disse Biden aos executivos.

Os Estados Unidos estão indo a reboque de outras grandes economias. A União Europeia foi a pioneira, ao apresentar um projeto de lei em 2021, que avança aos poucos no Parlamento Europeu. O Reino Unido está recorrendo a seu órgão regulador, e na China as autoridades já exigiram que os sistemas de IA obedeçam a regras rígidas.

Carlos Eduardo Pedreira, professor do Programa de Engenharia de Sistemas de Computação da Coppe/ UFRJ, afirma que as chamadas big techs não podem estar acima da lei:

— As big techs têm de tomar responsabilidade. É importante que se entendam com os governos em fiscalização e enquadramento dentro das leis dos países.

Defesa do elo vulnerável

No Brasil também já há uma proposta. O presidente do Senado, Rodrigo Pacheco, apresentou ontem um projeto de lei que cria um marco regulatório de IA. O texto tem como foco a proteção dos direitos dos usuários e a implementação de sistemas seguros e confiáveis em benefício das pessoas, da democracia e do desenvolvimento científico e tecnológico.

A proposta que passou a tramitar é resultado de um relatório elaborado por uma comissão de juristas, instalada no ano passado. O texto final também incluiu três outros projetos que já haviam sido apresentados na Câmara e no Senado.

Por sugestão dos juristas, o texto destaca desde a proteção ao meio ambiente e o desenvolvimento sustentável; a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas; e a livre iniciativa, a livre concorrência e a defesa do consumidor.

O texto ainda prevê a criação de um órgão para implementar e fiscalizar o cumprimento da nova lei e a punição para infrações.

Para o ministro do Superior Tribunal de Justiça (STJ), Ricardo Villas Bôas Cueva, que presidiu a comissão de juristas, é urgente regular a IA, que já é amplamente utilizada e traz inúmeros riscos a direitos fundamentais:

— O projeto procura definir com clareza direitos para proteção do elo mais vulnerável, a pessoa natural, continuamente afetada por sistemas de inteligência artificial, desde as seleções e recomendações de conteúdo e direcionamento de publicidade, na internet e nas mídias sociais, até a sua análise de elegibilidade para tomada de crédito e para determinadas políticas públicas.

O projeto determina que as pessoas afetadas por sistemas de IA têm direito à informação prévia, à privacidade, à explicação sobre decisões tomadas por essas ferramentas, e ainda de contestar essas decisões. Além disso, os sistemas que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, serão desenvolvidos de tal modo que essas pessoas consigam entender seu funcionamento e seus direitos.

Técnicas subliminares que tenham por objetivo induzir a pessoa a se comportar de forma prejudicial ou perigosa à saúde ou segurança são proibidas. Sobre esse ponto, Marco Sabino, advogado, professor e especialista em mídia e tecnologia, diz que é necessária uma definição melhor.

— O artigo fala em “técnicas subliminares”, mas a proposta não explica o que é isso, que, a propósito, tem muito questionamento — diz Sabino, ressaltando que a proposta é importante em vários aspectos.

Discriminação é ilícita

O projeto também classifica como de alto risco sistemas de IA em várias áreas: controle de trânsito, redes de abastecimento de água e eletricidade, educação, emergências médicas, investigação criminal, sistemas biométricos de identificação e controle de fronteira.

E o texto considera ilícita a discriminação de gênero, raça, orientação sexual, classe socioeconômica, idade, deficiência, religião e opiniões políticas.

Para Pedreira, da Coppe/ UFRJ, é importante pensar na regulação da aplicação dessas novas tecnologias. Mas ele avalia que o projeto apresentado por Pacheco contém um “certo exagero na palavra fiscalização”:

— É como se quiséssemos regras e órgãos para fiscalizar algo que ainda não se sabe bem o que é.

Ele defende o estabelecimento de preceitos éticos específicos, mas diz que é preciso entender que é uma “revolução que veio para ficar”, com efeitos na economia e no mercado de trabalho:

— Uma preocupação que devemos ter é que inteligência artificial depende de fomento e educação. Se o Brasil não abrir os olhos para isso, vai ficar para trás.