Em tempos de digitalização dos negócios, dos hábitos de consumo, de relacionamentos interpessoais e da própria vida, torna-se indispensável estarmos atentos para os riscos do fim da moderação de conteúdo praticado pelos grandes players mundiais da arena digital – as plataformas digitais.

É de conhecimento público o poder e o impacto que as bigtechs possuem em ditar comportamentos, influenciar tomadas de decisão, inclusive atuando de maneira decisiva em processos eleitorais de alguns países. Isto sem falar da lógica das bolhas, que faz com que seus usuários cada vez mais vivam inseridos nelas. Se antes estávamos acostumados a discussões a respeito de um candidato ou de uma proposta, em que tínhamos o diálogo, a exposição de ideias opostas; agora quem pensa diferente não frequenta os mesmos grupos digitais destas pessoas, ou seja, estamos lidando com pessoas/perfis digitais que pensam como nós, que concordam com nossas opiniões. As divergências, as opiniões diferentes ficam em outros grupos, outras bolhas.

Publicidade

O modo de programação dos algoritmos das plataformas digitais acaba por fomentar a intolerância e discursos de ódio entre quem pensa diferente. Além disso, discursos extremos, como de ódio e violência, geram mais engajamento entre os usuários. Não é de difícil conclusão que as plataformas digitais possuem responsabilidade pelo conteúdo postado e especialmente fomentado com base nas escolhas que os algoritmos realizam. A lógica de funcionamento das redes não é ao acaso. A polarização e discurso de ódio não são consequências inerentes, naturais.

Como em qualquer setor econômico, seja ele muito ou pouco regulado, o certo é que há legislação regendo a atividade econômica que, em muitas das vezes, conta com agência regulatória realizando a supervisão do setor e editando normativos que detalham a atuação dos entes regulados. Tudo isso para promover um ambiente de negócios saudável e de acordo com as normas vigentes. Entendemos que as bigtechs devem respeitar as legislações dos países em que prestam os serviços. Assim como os países devem conhecer da problemática do negócio digital, aprofundar a discussão e sensibilização do tema com a sociedade e aprovar a lei que considera mais benéfica, cabendo ao Judiciário, a aplicação da legislação, solucionando os potenciais conflitos.

Publicidade

É verdade que a dinâmica das redes dificulta tanto a compreensão dos novos dilemas digitais como a forma para enfrentá-los. Se o Poder Judiciário pode atuar com eficácia em uma disputa judicial entre gigantes do mercado imobiliário, não é correto afirmar que uma decisão judicial, no caso de um discurso de ódio, promovido em ambiente digital terá uma boa solução. A celeridade dos fatos e atos postados com sérias consequências nas vidas das pessoas é muito superior à capacidade de resposta do Poder Judiciário neste tipo de problema. Então não há solução?

É possível termos solução eficaz para o exemplo acima. No Brasil, podemos afirmar a carência de lei específica que regulamente a atuação e responsabilidade das plataformas digitais por conteúdo postado por terceiros, sem ferir a liberdade de expressão e sem censurar. Apenas a Constituição Federal, Código Civil e Marco Civil da Internet não são instrumentos capazes de lidar com a complexidade da atuação das plataformas. Além do mais, os usuários das redes também têm o direito de conhecer a forma como os algoritmos atuam e interagir com a administração das plataformas.

Publicidade

No Brasil, a área de compliance de diversas empresas ganharam relevo nos últimos anos. Acreditamos que assim como muitas companhias possuem os sistemas de compliance estruturados para evitar problemas relacionados à integridade, como fraude, corrupção e assédio moral, as plataformas digitais podem aproveitar esta experiência e estruturar seus sistemas de compliance com códigos claros sobre o que é permitido e o que não é tolerado. Nos programas de compliance temos o instrumento do canal de denúncias que também pode ser visto como uma ferramenta importante para se relatar acusações, abusos e outras práticas inadequadas.

Finalmente queremos enfatizar que o programa de compliance das plataformas pode ser entendido como uma espécie de autorregulação, isto é, a própria plataforma vai ditar suas regras, a forma de interação com os usuários e como vai se dar a moderação de conteúdos, o que vai ser removido e porquê. Acabar com a moderação de conteúdo é, no mínimo, um desrespeito aos usuários e sociedade. A mensagem que fica é de que vale tudo.

Sem dúvidas, a autorregulação é uma possível solução para o funcionamento das plataformas no Brasil. No entanto, ainda falta lei específica que regule os direitos e as obrigações das plataformas digitais, prevendo inclusive as diretrizes para a autorregulação das plataformas. Também consideramos indispensável a designação da autoridade regulatória capaz de regulamentar a matéria, exercendo o papel de supervisão e fiscalização.

por Marília Kairuz Baracat, advogada e gestora de governança da CEDAE

Disponível originalmente no O Dia. Publicado na CompliancePME em 24 de janeiro de 2025