As plataformas digitais, como redes sociais e marketplaces, estão profundamente integradas ao nosso cotidiano. Elas não são apenas meios de interação social, mas também ferramentas poderosas para disseminação de informações, negócios e entretenimento. No entanto, o crescente volume de conteúdo gerado pelos usuários trouxe um desafio que está no centro dos debates jurídicos: como moderar esse conteúdo de forma eficaz, respeitando direitos individuais e coletivos, sem comprometer a liberdade de expressão?
No Brasil, o Marco Civil da Internet estabelece uma base legal para lidar com a responsabilidade dessas plataformas. De acordo com a legislação, elas não são, em regra, responsáveis pelo conteúdo publicado pelos usuários. Contudo, tornam-se responsabilizáveis caso deixem de cumprir uma ordem judicial para remover material ilegal. Isso coloca as plataformas em uma posição desafiadora, na qual precisam balancear sua neutralidade como intermediárias e sua responsabilidade em combater abusos.
Um exemplo recente que ilustra bem essa questão envolve as chamadas “fake news”. Durante períodos eleitorais, conteúdos falsos e potencialmente prejudiciais são compartilhados em larga escala. As plataformas, ao mesmo tempo em que buscam conter essa disseminação, enfrentam críticas pela suposta demora ou ineficiência de suas ações. Outro caso emblemático foi durante a pandemia de COVID-19, quando informações falsas sobre tratamentos e vacinas colocaram milhões de vidas em risco, exigindo uma resposta ágil e firme das empresas de tecnologia.
Embora a moderação de conteúdo seja essencial, ela não é um campo isento de controvérsias. Um dos principais debates gira em torno dos limites da liberdade de expressão. Garantida pela Constituição Federal, a liberdade de expressão é um direito fundamental. No entanto, como todo direito, ela não é absoluta. Quando conteúdos violam a honra, a dignidade ou promovem discurso de ódio, a remoção pode ser necessária. Mas quem define esses limites?
As plataformas utilizam algoritmos e equipes humanas para moderar conteúdos, mas erros são frequentes. Conteúdos legítimos, como críticas ou humor, muitas vezes são removidos erroneamente, gerando uma sensação de censura entre os usuários. Por outro lado, a falta de transparência no processo de moderação também alimenta desconfiança. Por que determinado conteúdo foi removido? Quais critérios foram utilizados? Essas perguntas ficam, na maioria das vezes, sem resposta clara.
No cenário brasileiro, os desafios jurídicos são ainda mais complexos. Apesar dos avanços trazidos pelo Marco Civil da Internet, ainda há lacunas na regulamentação. Ferramentas automatizadas, como as que utilizam inteligência artificial para identificar conteúdos problemáticos, por exemplo, operam em um ambiente praticamente sem supervisão específica. Além disso, a Lei Geral de Proteção de Dados (LGPD), embora tenha estabelecido diretrizes para o tratamento de dados pessoais, ainda enfrenta dificuldades práticas quando o conteúdo gerado anonimamente precisa ser rastreado.
A tensão entre garantir a segurança no ambiente digital e preservar a liberdade de expressão é evidente. Algumas decisões judiciais obrigam plataformas a remover conteúdos, enquanto outras priorizam a proteção do direito de manifestação. O equilíbrio entre esses valores é delicado e muitas vezes controverso.
Para lidar com essas questões, uma regulamentação mais robusta e específica seria bem-vinda. Medidas como maior transparência nos processos de moderação e a criação de canais eficazes para que os usuários recorram de decisões de remoção podem ajudar a fortalecer a confiança no sistema. Além disso, campanhas de educação digital são essenciais para que os próprios usuários compreendam seus direitos e responsabilidades no ambiente online.
As plataformas digitais não são mais simples ferramentas tecnológicas; elas se tornaram espaços onde direitos fundamentais são exercidos e, às vezes, violados. O papel delas na moderação de conteúdo deve ser continuamente debatido e aprimorado, sempre com o objetivo de proteger os indivíduos e a coletividade, sem sufocar as vozes que dependem desses meios para se expressar.
O desafio, afinal, é encontrar um ponto de equilíbrio que permita um ambiente digital seguro, respeitando os direitos e liberdades que tornam a internet um espaço verdadeiramente democrático.
Daniel Callejon Barani
Sócio – Scartezzini Advogados Associados
daniel.barani@scartezzini.com.br
Publicado 05/12/24 por Daniel Barani.
© - Scartezzini Advogados. Site criado por Agência Javali.