A 9 de novembro de 2025 o Movimento pela Democracia Participativa (MDP) enviou uma participação à ANACOM por “Violação Sistemática do Digital Services Act pela Plataforma X (antigo Twitter)”
A resposta foi-nos enviada a 20.11.2025 (após duas insistências):
“Analisados os factos descritos na sua reclamação, informamos que consideramos as evidências por si apresentadas suficientes para justificar a investigação dos factos. Por esse motivo, a sua reclamação contra o X foi transmitida, no dia 20 de novembro de 2025, para o coordenador dos serviços digitais da Irlanda, Coimisiún na Meán, através do sistema de partilha de informações da Comissão Europeia – AGORA.
(…)
Assim que se verificar uma atualização deste processo, comunicaremos por esta via.
Com os melhores cumprimentos,
Serviço de Apoio aos Consumidores
Direção-Geral de Informação e Inovação
ANACOM”
Reclamação original (de 9 de Julho de 2025):
Violação Sistemática do Digital Services Act pela Plataforma X (antigo Twitter): Queixas à ANACOM e MP
A proliferação de discursos de ódio, insultos e ameaças nas plataformas digitais representa um dos desafios mais prementes da era digital contemporânea. A rede social X, anteriormente conhecida como Twitter, tem registado um aumento significativo na disseminação de conteúdos ofensivos e potencialmente perigosos, colocando em causa a segurança e dignidade dos seus utilizadores.
Este fenómeno não se limita apenas a casos isolados, mas configura um padrão sistemático de deficiências na moderação de conteúdos que viola não apenas os próprios termos de serviço da plataforma, mas também disposições legais nacionais e europeias relativas à proteção dos direitos fundamentais, à não discriminação e à prevenção de crimes de ódio.
Metodologia do Estudo:
Esta investigação baseia-se numa análise sistemática de casos documentados de conteúdos de ódio reportados na plataforma X, examinando:
Tipologia dos Conteúdos: Categorização de insultos, ameaças diretas, incitamento ao ódio e discriminação.
Processo de Moderação: Análise das respostas (ou ausência das mesmas) por parte da plataforma.
Tempo de Resposta: Avaliação da celeridade na remoção ou sanções de conteúdos inadequados.
Consistência: Verificação da aplicação uniforme das políticas de moderação.
Impacto e Consequências
As deficiências identificadas no sistema de moderação têm consequências diretas para:
Utilizadores Individuais: Exposição a conteúdos traumatizantes, intimidação e potencial escalada para violência física.
Grupos Vulneráveis: Amplificação de discriminação baseada em origem étnica, orientação sexual, identidade de género, religião ou outras características protegidas.
Sociedade: Degradação do debate público, polarização social, aumento da expressão eleitoral dos partidos populistas e erosão da confiança nas instituições democráticas como tem vindo a ser amplamente demonstrada pela multiplicação de grupos de ódio violentos nos últimos meses.
Objetivos e Finalidade
O presente estudo visa:
1. Documentar de forma sistemática as falhas na moderação de conteúdos na plataforma X (antigo Twitter)
2. Demonstrar o incumprimento de obrigações legais por parte desta plataforma
3. Fundamentar a necessidade de intervenção das autoridades competentes
4. Contribuir para o desenvolvimento de políticas públicas mais eficazes na regulação das plataformas digitais.
1. Participação ao Ministério Público
Base legal: Código Penal (art. 240.º, 132.º, 180.º, 181.º) e Lei do Cibercrime.
Objetivo: Levar o Ministério Público a investigar e agir criminalmente contra os autores e exigir cooperação do Twitter/X.
Assunto: Queixa por publicação reiterada de conteúdos ilícitos na plataforma X (antigo Twitter)
Eu, Rui Martins, cidadão português, residente em Lisboa, e membro do Movimento pela Democracia Participativa (MDP), venho por este meio apresentar queixa contra a plataforma digital X (antigo Twitter), perante a possível responsabilidade da própria plataforma enquanto facilitadora e inerte moderadora dos seguintes conteúdos:
1. Factos
Nos últimos meses, a plataforma digital X tem alojado e difundido, de forma reiterada e impune, publicações que incluem:
Incitamento ao ódio e à violência contra minorias étnicas, religiosas, sexuais e políticas;
Ameaças diretas e indiretas a ativistas, jornalistas e utilizadores comuns;
Insultos, difamações e linguagem degradante com impacto público.
Estes conteúdos foram devidamente denunciados à própria plataforma por mim e por outros utilizadores, sem que tenha havido remoção ou resposta efetiva.
Exemplos concretos estão listados no anexo 1 (links e capturas de ecrã).
2. Enquadramento Legal
Considero estarem em causa várias infrações criminais:
Art. 240.º do Código Penal – Discriminação e incitamento ao ódio e à violência
Art. 132.º – Ameaças agravadas
Art. 180.º e 181.º – Injuria e difamação
Adicionalmente, pode estar em causa a violação da Lei do Cibercrime (Lei n.º 109/2009), quando os conteúdos são veiculados de forma sistemática em meios digitais.
3. Responsabilidade da Plataforma
Nos termos do Digital Services Act (Regulamento (UE) 2022/2065), o X é uma “Very Large Online Platform” e está obrigado a:
Remover conteúdos ilegais após denúncia;
Implementar mecanismos eficazes de moderação e transparência.
A sua omissão reiterada poderá constituir negligência grave, justificando cooperação judicial internacional.
4. Pedido
Venho pedir por este meio:
Avaliação da responsabilidade da plataforma por facilitação de atos ilícitos;
Cooperação com entidades internacionais para obtenção de dados;
Encaminhamento para entidades reguladoras, se aplicável.
Anexo:
1. Prints e links dos conteúdos
2. Histórico de denúncias à plataforma
Exemplos (URLs) de publicações reportadas à moderação de conteúdos no X e que esta plataforma manteve no ar:
https://twitter.com/carteiraslx/status/1936540024335737124?t=Ku9wDuzgcjzWil5VXcTUjg&s=19
Denúncia à ANACOM – Violação do Digital Services Act pela Plataforma X (antigo Twitter)
Remetente: Rui Martins Lisboa, pelo Portugal pelo Movimento pela Democracia Participativa (MDP)
Destinatário: ANACOM – Autoridade Nacional de Comunicações [DSA Contact Point / Unidade de Supervisão Digital]
Assunto: Denúncia por incumprimento do Regulamento (UE) 2022/2065 – Digital Services Act – pela plataforma X (antigo Twitter)
1. Fundamentação Legal
Nos termos do Regulamento (UE) 2022/2065, em vigor desde fevereiro de 2024, as plataformas classificadas como Very Large Online Platforms (VLOPs), como é o caso do X (Twitter), estão obrigadas a:
Remover conteúdos manifestamente ilegais com celeridade, após notificação fundamentada;
Manter mecanismos eficazes de denúncia e recurso interno;
Prevenir riscos sistémicos, nomeadamente a difusão de conteúdos que atentem contra os direitos fundamentais;
Garantir moderação responsável e transparente, especialmente em matéria de discurso de ódio, ameaças e incitamento à violência.
2. Situação Reportada
Verifica-se, com base em investigação documental e empírica, que a plataforma X tem falhado de forma sistemática no cumprimento destas obrigações, ao manter online conteúdos com fortes indícios de ilegalidade, mesmo após múltiplas denúncias:
Insultos e linguagem degradante contra indivíduos e grupos vulneráveis;
Incitamento ao ódio racial, religioso, político ou identitário;
Ameaças diretas e indiretas contra utilizadores identificáveis, incluindo ativistas e jornalistas;
Ausência de resposta adequada ou remoção eficaz, mesmo após denúncias fundamentadas acompanhadas de prova.
A título de exemplo, apresento alguns conteúdos que foram reportados diretamente à plataforma e mantidos online, com as respetivas URLs e capturas de ecrã (ver Anexos). Em muitos casos, a plataforma respondeu com mensagens automatizadas, recusando a remoção dos conteúdos, mesmo quando estes configuram potenciais ilícitos penais ou violações das suas próprias políticas.
3. Metodologia do Relatório Anexo
O documento técnico anexo baseia-se numa amostra qualificada de casos analisados entre maio e junho de 2025, com os seguintes critérios:
Tipologia do conteúdo: insultos, ameaças, discurso de ódio e incitamento à violência;
Resposta da plataforma: padrão automatizado, ausência de fundamentação e não remoção;
Reincidência: várias contas reincidentes mantêm-se ativas, com histórico de violações;
Risco sistémico: impacto direto sobre utilizadores visados e degradação do ambiente digital.
4. Impacto Social e Digital
As deficiências graves de moderação têm consequências diretas:
Para os utilizadores: exposição a discurso violento, intimidação e assédio reiterado;
Para a sociedade: polarização digital, normalização do ódio, erosão da confiança nas instituições democráticas;
Para a regulação: fragilização da eficácia do DSA se as obrigações legais não forem ativamente fiscalizadas e aplicadas.
5. Pedido Formal à ANACOM
Nos termos da sua competência como entidade reguladora nacional para efeitos do DSA, venho solicitar:
Abertura de processo de verificação de conformidade da plataforma X com as obrigações previstas no Regulamento (UE) 2022/2065;
Avaliação da ineficácia dos mecanismos de denúncia e moderação, à luz do Artigo 16.º e Artigo 17.º do DSA;
Requisição de esclarecimentos à plataforma, sobre os motivos da não remoção dos conteúdos sinalizados;
Adoção de medidas sancionatórias ou corretivas, em caso de incumprimento reiterado;
Encaminhamento para outras autoridades competentes europeias, se aplicável, nomeadamente o Conselho de Coordenadores de Serviços Digitais.
6. Anexos
Exemplos (URLs) de publicações reportadas à moderação de conteúdos no X e que esta plataforma manteve no ar:
https://twitter.com/carteiraslx/status/1936540024335737124?t=Ku9wDuzgcjzWil5VXcTUjg&s=19
Com os melhores cumprimentos,
Rui Martins
Movimento pela Democracia Participativa (MDP)
Lisboa, junho de 2025

Deixe um comentário