A proliferação de discursos de ódio, insultos e ameaças nas plataformas digitais representa um dos desafios mais prementes da era digital contemporânea. A rede social X, anteriormente conhecida como Twitter, tem registado um aumento significativo na disseminação de conteúdos ofensivos e potencialmente perigosos, colocando em causa a segurança e dignidade dos seus utilizadores.

Este fenómeno não se limita apenas a casos isolados, mas configura um padrão sistemático de deficiências na moderação de conteúdos que viola não apenas os próprios termos de serviço da plataforma, mas também disposições legais nacionais e europeias relativas à proteção dos direitos fundamentais, à não discriminação e à prevenção de crimes de ódio.

Metodologia do Estudo:

Esta investigação baseia-se numa análise sistemática de casos documentados de conteúdos de ódio reportados na plataforma X, examinando:

Tipologia dos Conteúdos: Categorização de insultos, ameaças diretas, incitamento ao ódio e discriminação.

Processo de Moderação: Análise das respostas (ou ausência das mesmas) por parte da plataforma.

Tempo de Resposta: Avaliação da celeridade na remoção ou sanções de conteúdos inadequados.

Consistência: Verificação da aplicação uniforme das políticas de moderação.

Impacto e Consequências

As deficiências identificadas no sistema de moderação têm consequências diretas para:

Utilizadores Individuais: Exposição a conteúdos traumatizantes, intimidação e potencial escalada para violência física.

Grupos Vulneráveis: Amplificação de discriminação baseada em origem étnica, orientação sexual, identidade de género, religião ou outras características protegidas.

Sociedade: Degradação do debate público, polarização social, aumento da expressão eleitoral dos partidos populistas e erosão da confiança nas instituições democráticas como tem vindo a ser amplamente demonstrada pela multiplicação de grupos de ódio violentos nos últimos meses.

Objetivos e Finalidade

O presente estudo visa:

1. Documentar de forma sistemática as falhas na moderação de conteúdos na plataforma X (antigo Twitter)

2. Demonstrar o incumprimento de obrigações legais por parte desta plataforma

3. Fundamentar a necessidade de intervenção das autoridades competentes

4. Contribuir para o desenvolvimento de políticas públicas mais eficazes na regulação das plataformas digitais.

1. Participação ao Ministério Público (MP)

Base legal: Código Penal (art. 240.º, 132.º, 180.º, 181.º) e Lei do Cibercrime.

Objetivo: Levar o Ministério Público a investigar e agir criminalmente contra os autores e exigir cooperação do Twitter/X.

Assunto: Queixa por publicação reiterada de conteúdos ilícitos na plataforma X (antigo Twitter)

Eu, Rui Martins, cidadão português, residente em Lisboa, e membro do Movimento pela Democracia Participativa (MDP), venho por este meio apresentar queixa contra a plataforma digital X (antigo Twitter), perante a possível responsabilidade da própria plataforma enquanto facilitadora e inerte moderadora dos seguintes conteúdos:

1. Factos

Nos últimos meses, a plataforma digital X tem alojado e difundido, de forma reiterada e impune, publicações que incluem:

Incitamento ao ódio e à violência contra minorias étnicas, religiosas, sexuais e políticas;

Ameaças diretas e indiretas a ativistas, jornalistas e utilizadores comuns;

Insultos, difamações e linguagem degradante com impacto público.

Estes conteúdos foram devidamente denunciados à própria plataforma por mim e por outros utilizadores, sem que tenha havido remoção ou resposta efetiva.

Exemplos concretos estão listados no anexo 1 (links e capturas de ecrã).

2. Enquadramento Legal

Considero estarem em causa várias infrações criminais:

Art. 240.º do Código Penal – Discriminação e incitamento ao ódio e à violência

Art. 132.º – Ameaças agravadas

Art. 180.º e 181.º – Injuria e difamação

Adicionalmente, pode estar em causa a violação da Lei do Cibercrime (Lei n.º 109/2009), quando os conteúdos são veiculados de forma sistemática em meios digitais.

3. Responsabilidade da Plataforma

Nos termos do Digital Services Act (Regulamento (UE) 2022/2065), o X é uma “Very Large Online Platform” e está obrigado a:

Remover conteúdos ilegais após denúncia;

Implementar mecanismos eficazes de moderação e transparência.

A sua omissão reiterada poderá constituir negligência grave, justificando cooperação judicial internacional.

4. Pedido

Venho pedir por este meio:

Avaliação da responsabilidade da plataforma por facilitação de atos ilícitos;

Cooperação com entidades internacionais para obtenção de dados;

Encaminhamento para entidades reguladoras, se aplicável.

Anexo:

1. Prints e links dos conteúdos

2. Histórico de denúncias à plataforma

Exemplos (URLs) de publicações reportadas à moderação de conteúdos no X e que esta plataforma manteve no ar:

Denúncia à ANACOM – Violação do Digital Services Act pela Plataforma X (antigo Twitter)

Remetente: Rui Martins Lisboa, pelo Portugal pelo Movimento pela Democracia Participativa (MDP)

Destinatário: ANACOM – Autoridade Nacional de Comunicações [DSA Contact Point / Unidade de Supervisão Digital]

Assunto: Denúncia por incumprimento do Regulamento (UE) 2022/2065 – Digital Services Act – pela plataforma X (antigo Twitter)

1. Fundamentação Legal

Nos termos do Regulamento (UE) 2022/2065, em vigor desde fevereiro de 2024, as plataformas classificadas como Very Large Online Platforms (VLOPs), como é o caso do X (Twitter), estão obrigadas a:

Remover conteúdos manifestamente ilegais com celeridade, após notificação fundamentada;

Manter mecanismos eficazes de denúncia e recurso interno;

Prevenir riscos sistémicos, nomeadamente a difusão de conteúdos que atentem contra os direitos fundamentais;

Garantir moderação responsável e transparente, especialmente em matéria de discurso de ódio, ameaças e incitamento à violência.

2. Situação Reportada

Verifica-se, com base em investigação documental e empírica, que a plataforma X tem falhado de forma sistemática no cumprimento destas obrigações, ao manter online conteúdos com fortes indícios de ilegalidade, mesmo após múltiplas denúncias:

Insultos e linguagem degradante contra indivíduos e grupos vulneráveis;

Incitamento ao ódio racial, religioso, político ou identitário;

Ameaças diretas e indiretas contra utilizadores identificáveis, incluindo ativistas e jornalistas;

Ausência de resposta adequada ou remoção eficaz, mesmo após denúncias fundamentadas acompanhadas de prova.

A título de exemplo, apresento alguns conteúdos que foram reportados diretamente à plataforma e mantidos online, com as respetivas URLs e capturas de ecrã (ver Anexos). Em muitos casos, a plataforma respondeu com mensagens automatizadas, recusando a remoção dos conteúdos, mesmo quando estes configuram potenciais ilícitos penais ou violações das suas próprias políticas.

3. Metodologia do Relatório Anexo

O documento técnico anexo baseia-se numa amostra qualificada de casos analisados entre maio e junho de 2025, com os seguintes critérios:

Tipologia do conteúdo: insultos, ameaças, discurso de ódio e incitamento à violência;

Resposta da plataforma: padrão automatizado, ausência de fundamentação e não remoção;

Reincidência: várias contas reincidentes mantêm-se ativas, com histórico de violações;

Risco sistémico: impacto direto sobre utilizadores visados e degradação do ambiente digital.

4. Impacto Social e Digital

As deficiências graves de moderação têm consequências diretas:

Para os utilizadores: exposição a discurso violento, intimidação e assédio reiterado;

Para a sociedade: polarização digital, normalização do ódio, erosão da confiança nas instituições democráticas;

Para a regulação: fragilização da eficácia do DSA se as obrigações legais não forem ativamente fiscalizadas e aplicadas.

5. Pedido Formal à ANACOM

Nos termos da sua competência como entidade reguladora nacional para efeitos do DSA, venho solicitar:

Abertura de processo de verificação de conformidade da plataforma X com as obrigações previstas no Regulamento (UE) 2022/2065;

Avaliação da ineficácia dos mecanismos de denúncia e moderação, à luz do Artigo 16.º e Artigo 17.º do DSA;

Requisição de esclarecimentos à plataforma, sobre os motivos da não remoção dos conteúdos sinalizados;

Adoção de medidas sancionatórias ou corretivas, em caso de incumprimento reiterado;

Encaminhamento para outras autoridades competentes europeias, se aplicável, nomeadamente o Conselho de Coordenadores de Serviços Digitais.

6. Anexos

Exemplos (URLs) de publicações reportadas à moderação de conteúdos no X e que esta plataforma manteve no ar:

Com os melhores cumprimentos, 

Rui Martins 

Movimento pela Democracia Participativa (MDP) 

Lisboa, junho de 2025

Algumas respostas da “moderação de conteúdos” do X sobre publicações reportadas:

“Recebemos sua reclamação sobre a conta, @velhosportistas, em relação ao conteúdo a seguir: 

chave da denúncia: RAAEa3PZJs9dhRgAHABGnZJzllpABf____w 

Investigamos o conteúdo denunciado e descobrimos que ele não está sujeito a remoção de acordo com os fundamentos legais de DSA Law em the EU.”

“Depois de analisarmos as informações à disposição, gostaríamos de avisar que Francis61820767 não violou nossas políticas de segurança. Sabemos que esta não é a resposta que você queria, mas se esta conta violar nossas políticas no futuro, notificaremos você.”

“Depois de analisarmos as informações à disposição, gostaríamos de avisar que PajeetCigano não violou nossas políticas de segurança. Sabemos que esta não é a resposta que você queria, mas se esta conta violar nossas políticas no futuro, notificaremos você.”

“Depois de analisarmos as informações à disposição, gostaríamos de avisar que DiogoGo55070552 não violou nossas políticas de segurança. Sabemos que esta não é a resposta que você queria, mas se esta conta violar nossas políticas no futuro, notificaremos você.”

“Depois de analisarmos as informações à disposição, gostaríamos de avisar que Xocolat88830999 não violou nossas políticas de segurança. Sabemos que esta não é a resposta que você queria, mas se esta conta violar nossas políticas no futuro, notificaremos você.”

“Estamos escrevendo para avisar que, depois de revisar as informações à disposição, não descobrimos violação das nossas regras no conteúdo denunciado.” 

“Recebemos sua reclamação referente ao seguinte conteúdo da conta @VtorDias418652: 

chave da denúncia: RAAEa3pFKrhaR4QAHABGnZJzllpABf____w 

De acordo com a legislação vigente, o X está retendo o conteúdo denunciado em France, especificamente com base nos seguintes fundamentos legais: Defamation / Insult. 

Para mais informações sobre nossa política de conteúdo retido no país, consulte esta página: https://support.x.com/articles/20169222.” 

(recebemos uma resposta idêntica referente ao bloqueio de conteúdos de ódio/insultos na Alemanha o que parece confirmar a tese de que o X é mais eficaz a remover conteúdos de ódio quando se escolhe esta forma de reporte)

Esta análise das respostas da plataforma X (antigo Twitter) a pedidos de moderação de conteúdo revela padrões importantes de comunicação institucional, aplicação (ou não) de políticas internas e os limites da atuação legal da empresa, especialmente dentro do contexto europeu. 

Análise:

Padrões nas Respostas da Plataforma

1. Estrutura Padrão e Automatizada

As mensagens seguem um modelo padronizado e automatizado, indicando respostas pré-formatadas com mínimas variações:

Introdução (“Olá, depois de analisarmos…”)

Decisão sobre a violação ou não de políticas

Orientação sobre bloqueio de contas

Resumo das políticas de segurança

Encerramento com convite à nova denúncia, se necessário

Esse padrão sugere uma abordagem automatizada ou semi-automatizada para denúncias de conteúdo, com possível envolvimento limitado de revisão humana, salvo exceções legais.

Diferenciação Legal e Política Interna

1. Casos Baseados em Legislação (DSA/EU e Leis Nacionais)

Exemplo: No caso da conta @velhosportistas, o conteúdo é considerado não passível de remoção segundo o DSA da União Europeia.

Já o conteúdo da conta @VtorDias418652 foi retido especificamente em França, com base em legislação de “difamação ou insulto”.

Ou seja, o X reconhece obrigações legais específicas de jurisdições nacionais — especialmente no espaço europeu — o que demonstra algum alinhamento com o Digital Services Act (DSA), permitindo que conteúdos sejam geobloqueados (removidos apenas em certos países) mesmo que não violem as regras globais da plataforma.

Respostas de Não-Violação

As respostas referentes às contas Francis61820767, PajeetCigano, DiogoGo55070552, Xocolat88830999 e outras seguem uma lógica similar:

1. Não Violação

A plataforma conclui que não houve violação das políticas de segurança.

As denúncias são “bem-vindas”, mas não resultam em punições ou remoção.

2. Recomendações de Ação Individual

3. Sugestão para o denunciante bloquear a conta ofensora.

4. Reforço da autonomia do usuário em sua própria experiência digital.

3. Resumo das Políticas de Segurança

Reforçam publicamente que as seguintes ações são proibidas:

Ameaças e assédio

Promoção de violência ou suicídio

Exploração sexual de menores

Terrorismo

Nota crítica: O resumo serve como reforço institucional, mas a aplicação efetiva parece falhar aos olhos de quem denuncia, já que o conteúdo permanece disponível.

Mecanismos de Recurso e Contestação

A plataforma informa, especialmente em conteúdos analisados sob o prisma legal (como no caso da França, Alemanha ou da UE em geral), que é possível:

1. Recorrer internamente

2. Procurar resolução extrajudicial

3. Iniciar ação judicial

Isto demonstra que o X fornece um mínimo de devido processo digital, como exigido por normas europeias, mas a experiência para o utilizador comum ainda é bastante opaca e pouco responsiva.

Considerações Críticas e Potenciais Problemas

Falta de Justificações Detalhadas
As respostas não explicam porque é que o conteúdo não violou as regras. Isto frustra os utilizadores da plataforma e reduz a confiança na moderação o que, a curto prazo, reduz a quantidade de reportes de eventuais violações e degrada cada vez a qualidade de conteúdos e multiplica o discurso de ódio e as ameaças na plataforma.

Risco de Subnotificação de Conteúdo Abusivo
Ao não remover conteúdos que parecem violar diretrizes, a plataforma pode estar normalizando o discurso abusivo ou o “limiar da violência”.

Soluções Reativas, Não Preventivas
A recomendação de “bloquear” desvia a responsabilidade da plataforma para o utilizador, o que é criticável do ponto de vista de bem-estar digital coletivo.

Conclusão

As respostas do X refletem uma combinação de protocolos automatizados, moderação limitada ou automatizada e o cumprimento mínimo (ou nulo) de obrigações legais, sobretudo no espaço europeu. Embora exista um mecanismo institucional e jurídico, a experiência do utilizador do X (antigo Twitter) perante conteúdo abusivo ou ofensivo continua a ser muito insatisfatória, com pouco espaço para diálogo e revisão transparente.

Uma resposta a “Violação Sistemática do Digital Services Act pela Plataforma X (antigo Twitter): Queixas à ANACOM e MP”

Deixe uma resposta para ANACOM aceita queixa e encaminha para o coordenador dos serviços digitais da Irlanda, Coimisiún na Meán: “Violação Sistemática do Digital Services Act pela Plataforma X (antigo Twitter)” – MDP: Movimento pela Democracia Participati Cancelar resposta

CITAÇÂO da SEMANA

“A essência da democracia participativa é a participação significativa na tomada de decisões e na formulação de políticas.”
Carole Pateman
“Participação e Teoria Democrática” (1970)