1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

"Não sabemos com quais critérios plataformas tomam decisões"

12 de abril de 2024

Para pesquisadora, falta transparência sobre atuação das redes e leis atuais são insuficientes para impedir violência virtual. Segundo Clara Keller, embate de Musk contra STF soa como tentativa de afastar regulação

https://p.dw.com/p/4ehQT
redes sociais
Foto: onathan Raa/Sipa USA/picture alliance

O Brasil tem uma população economicamente vulnerável muito mais dependente das redes sociais para se comunicar e se informar, o que torna ainda mais importante a regulação dessas plataformas no país, afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim.

Apesar de o Brasil ter feito avanços fundamentais nas leis que regem as relações digitais, com o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD), de 2014 e 2019 respectivamente, aspectos importantes das operações dessas empresas estão descobertos, e falta transparência sobre a sua atuação, o que pode sujeitar a sociedade, sobretudo grupos minoritários, a violências físicas e virtuais. 

Para a pesquisadora brasileira, o recente ataque do empresário Elon Musk, dono da rede social X, contra o ministro do Supremo Tribunal Federal Alexandre de Moraes é muito mais uma tentativa de se resguardar da possibilidade de regulação do que uma discussão sobre liberdade de expressão. 

Confira abaixo a entrevista de Keller à DW: 

DW: Qual o ordenamento jurídico hoje no Brasil para atuação das redes sociais? 

Clara Iglesias Keller: Nossa principal regra é o artigo 19 do Marco Civil da Internet, que trata especificamente da responsabilização das plataformas após o dano ocorrido, e não do modelo de negócios como um todo. Esse regime diz que as empresas só podem ser responsabilizadas se houver descumprimento de decisão judicial demandando a remoção de conteúdo (com exceção de conteúdo que infrinja direito autoral ou em casos de divulgação não consentida de imagens íntimas).

Essa regra, isoladamente, não dá conta de garantir que as dinâmicas de comunicação que caracterizam as redes sociais acontecerão de forma democrática e segura, principalmente para grupos vulneráveis. 

Quais os pontos mais críticos que não são contemplados pela atual legislação?

Nós não sabemos com base em quais critérios as decisões das plataformas são tomadas, ou porque alguns discursos e perfis são bloqueados enquanto outros não; não temos garantias de que as empresas irão avaliar e agir contra situações de perigo iminente para direitos fundamentais, nem mecanismos para garantir uma maior participação da sociedade em decisões que afetam a liberdade de expressão – que, numa democracia, deve ser fruto de uma construção coletiva, cabendo ao Judiciário julgar abusos.

A meu ver, o próprio debate sobre coleta dados também carece de uma discussão sobre até que ponto as plataformas podem usá-los para direcionar conteúdo político dentro e fora de períodos eleitorais, por exemplo. Esses são alguns exemplos de discussões nas quais é preciso avançar.  

Por que a lei europeia é considerada um exemplo de regulação de redes sociais? 

 A Europa conta com um marco regulatório que contempla o modelo de negócios das redes sociais e outras plataformas digitais de forma mais ampla, incluindo regras sobre transparência na moderação de conteúdo, critérios de visibilidade, soluções de conflito, avaliação e mitigação de riscos. A ideia é vincular as atividades das plataformas em geral a valores públicos e à observação de direitos fundamentais.

Em que aspectos o Digital Service Act (DSA), em vigor desde janeiro, inovou na regulação do tema? 

Foi esse o regulamento que inaugurou um marco legal estruturado, que inclui também o Digital Markets Act (DMA), focado em questões consumeristas e concorrenciais.  O DSA selou uma abordagem sobre a regulação de plataformas digitais conhecida na literatura de língua inglesa como um giro "from liability to responsibility”, o que quer dizer que, ao invés de se regular apenas a responsabilidade civil, regula-se também a responsabilidade dessas empresas pelo seu modelo de negócios como um todo. Não basta mais apenas remover ou deixar de remover conteúdo, é preciso ter uma responsabilidade mais ativa e que presume o modelo de negócio.

Seria possível replicar a lei europeia tal como ela é no Brasil, ou há especificidades que precisam ser observadas?

A experiência internacional é uma inspiração, além de mostrar a quais parâmetros essas empresas globais já estão sujeitas em outros países. Mas a transposição para o ordenamento jurídico brasileiro sempre deve ser feita com muita cautela. É importante lembrar que o Brasil tem uma tradição própria em políticas digitais, tendo aprovado a primeira lei a propor uma moldura regulatória para a Internet e que representou não só uma pacificação de disputas internas, mas também um movimento geopolítico importante, que é o Marco Civil.

A continuidade dessa tradição exige que a gente considere as peculiaridades do nosso país, como, por exemplo, o fato de termos uma população economicamente vulnerável, muitas vezes dependente das redes sociais. 

Dependente de que forma?

Há uma dependência dessas estruturas de comunicação para ter experiências coletivas, de inserção na vida social. Em alguns casos, faltam alternativas, ainda mais com a popularização das práticas de "zero rating” (provimento gratuito de internet com acesso limitado a certos programas, como algumas redes sociais).

O usuário não tem direitos garantidos, nem a prerrogativa de pluralismo. Isso desequilibra o jogo de poder, sujeita grupos minoritários a violências físicas e virtuais, dentre outras questões. Uma população menos vulnerável tem menos a perder, pois tem mais opções de serviços. 

Como a pressão das Big Techs é sentida na Europa e no Brasil? Como se deu esse embate político sobre a regulação na Europa?

Na Europa, a elaboração das políticas públicas se dá em âmbito supranacional, o que pode sujeitar a negociação a dinâmicas distintas de disputa. Isso dito, os debates recentes sobre regulação de plataformas digitais chamaram atenção para como as dinâmicas de poder global podem interferir na forma como o debate é feito.

Ano passado, tivemos notícias de plataformas digitais que usaram suas infraestruturas para divulgar conteúdo editorial contra a aprovação do PL 2630 (o chamado PL das Fake News), em alguns casos trazendo alegações enviesadas sobre o conteúdo da proposta. Empresas que por muito tempo reivindicaram um tratamento legal das suas atividades como de intermediários, recusando justamente a performance de atividades editoriais. O engajamento do setor privado no processo regulatório é bem-vindo e parte natural da política democrática, mas a forma como esse enfrentamento foi feito no Brasil recentemente destoa de processos em outras experiências. 

Como você vê os recentes ataques de Elon Musk ao ministro Alexandre de Moraes?

Não enxergo esse embate como uma discussão centrada na liberdade de expressão. Parece uma tentativa de um dono de empresa privada de demostrar poder e de alguma forma insuflar uma determinada ideologia política, e de se resguardar da possibilidade de regulação.

Elon Musk
Empresário Elon Musk, dono do X, tem feito ataques contra o ministro Alexandre de MoraesFoto: Alain Jocard/AFP [M]

Quais são os modelos possíveis de supervisão das plataformas? É preciso criar uma agência reguladora ou delegar essa função para um órgão já existente tem se mostrado uma solução melhor?

Tanto a criação de um órgão novo, quanto a delegação de funções a órgãos já existentes são possíveis. Mais importante do que isso é a promoção de inovação institucional que não apenas permita a integração entre estado e empresas na aplicação da lei (através da famosa corregulação), mas que também traga a sociedade para a construção da governança desse que se tornou um espaço fundamental para a prática democrática.

A própria diversidade de temas relevantes nessa regulação – como concorrência, infraestruturas de comunicação e conteúdo – indica que esse modelo envolverá mais de uma instituição pública. Mas é preciso explorar também figuras como, por exemplo, conselhos híbridos de mídia social, que podem apoiar a publicização das decisões sobre moderação de conteúdo, auditorias independentes e até mecanismos que permitam a participação de usuários, checadores de fatos e outras instituições nas decisões corriqueiras sobre conteúdo.