O Globo, n. 32736, 24/03/2023. Política, p. 10

Governo vai propor mais transparência para redes



O governo do presidente Luiz Inácio Lula da Silva (PT) vai propor a ampliação das exigências de transparência das plataformas digitais no projeto de lei das Fake News, em tramitação na Câmara. Segundo apurou O GLOBO com interlocutores que acompanham a elaboração da proposta, o entendimento é que o texto da forma como está redigido hoje cobre apenas informações quantitativas insuficientes para compreender o funcionamento das redes.

O governo discute enviar ao relator, deputado Orlando Silva (PCdoB), a sugestão de incluir informações qualitativas no texto. O objetivo é detalhar o funcionamento de sistemas de recomendação por algoritmos, o direcionamento de conteúdos e de publicidade de acordo com o perfil de usuários e como são analisadas denúncias de postagens violadoras da legislação.

Além dessas informações constarem em um relatório, as plataformas ficariam obrigadas a fornecer explicações diretamente aos próprios usuários, se houver mudança, por exemplo, na forma como operam os algoritmos e os mecanismos de distribuição de conteúdo personalizado.

A proposta sugerida pelo Executivo vai detalhar o funcionamento da transparência e como as informações devem ser entregues. Um ponto em discussão é quais informações serão públicas e quais só serão acessadas por órgão específico com essa atribuição. Ainda há debate interno sobre a criação de um órgão regulador das regras criadas ou atribuição dessa função a um já existente.

A última versão do PL das Fake News estabelece que as plataformas devem publicar relatórios semestrais com informações como número de usuários no Brasil e total de medidas aplicadas em razão do cumprimento dos seus termos e políticas, entre outros pontos. Também pede uma descrição dos tipos de ferramentas automatizadas usadas na moderação.

O modelo que o governo pretende seguir é principalmente o do Digital Services Act (DSA), em implementação na União Europeia. Um dos pontos é estabelecer uma exigência de divulgação de “riscos sistêmicos”. Pela proposta, as plataformas terão que produzir um relatório em que apontam riscos recorrentes e significativos em relação, por exemplo, a conteúdo ilegal, discurso de ódio e outros temas, além de informar quais são as providências que têm tomado.

Um argumento citado para ampliar as medidas de transparência é que hoje não há divulgação dessas informações mesmo para casos de violações de direitos autorais e pornografia de vingança, únicas exceções para responsabilização das plataformas previstas no Marco Civil da Internet. Não é possível, dessa forma, fazer uma avaliação se a norma é cumprida adequadamente, já que não há dados sobre a quantidade de denúncias feitas e se as empresas conseguem retirar esse conteúdo. Há uma leitura também de que as plataformas não poderão alegar que as exigências de transparência são inviáveis, uma vez que já estão se adaptando para regras semelhantes determinadas pela União Europeia.

— É central estabelecer que autoridade vai ser responsável por afirmar que o nível de transparência está adequado, ou sancionar pelo não cumprimento do nível adequado — acrescenta Mariana Valente, professora da Universidade de St Gallen e diretora do Internet Lab.

Em outra frente, o governo avalia garantir acesso gratuito da API (sigla em inglês para interface para programação de aplicações) das plataformas a pesquisadores. A ferramenta permite, por exemplo, extrair de forma automatizada dados sobre postagens nas redes e é fundamental em pesquisas que se propõem a acompanhar e analisar conteúdos com desinformação e discurso de ódio. Sob comando de Elon Musk, o Twitter já anunciou que vai extinguir a versão gratuita para acesso à API.

— A gente precisa saber por que determinado conteúdo é removido ou não. Mesmo que o acesso seja para audiências específicas, não seja para todo mundo, seria importante ter esses dados documentados para uma auditoria e fiscalização. É preciso também de uma metodologia de produção desses relatórios —resume a pesquisadora Yasmin Curzi, da FGV Direito Rio.

Um caso recente exemplifica a dificuldade. No início do mês, o chamado Comitê de Supervisão da Meta, órgão independente que toma decisões de moderação na empresa controladora do Facebook e Instagram, não soube informar por que um vídeo postado antes dos atos de 8 de janeiro não foi retirado do ar após ser denunciado sete vezes no Facebook por usuários e depois da análise de cinco revisores de conteúdo. A postagem conclamava as pessoas a “sitiar” o Congresso Nacional como “a última alternativa”.