Há dois dias, o comissário europeu Thierry Breton enviou uma comunicação a Elon Musk a lembrar as obrigações de moderação de conteúdo ao abrigo do Regulamento dos Mercados Digitais (DMA).
Esta comunicação surgiu no seguimento dos avisos feitos por vários investigadores e fact checkers acerca do crescimento da publicação de informação falsa relacionada com os ataques do Hamas a Israel no fim-de-semana passado. O problema está relacionado com o facto de a rede social ter começado a remover os títulos e leads de conteúdos partilhados pelos utilizadores e também por ter aumentado a disseminação de conteúdos falsos sobre o conflito por utilizadores com perfis verificados.
Desde há algum tempo, a verificação de perfis no Twitter/X depende do pagamento de uma mensalidade e não da notoriedade e da verificação precisa da identidade das pessoas por trás dos perfis. O pagamento também faz com que os conteúdos publicados através destas contas apareçam com mais frequência nas timelines dos utilizadores. Mesmo que sejam publicações completamente enganadoras.
Vários utilizadores que fazem Open Source Intelligence (OSINT) disseram à Wired que desde o ataque que a rede social X tem sido inundada com informações falsas, o que torna difícil a recolha de informação fidedigna sobre o conflito.
Na comunicação, Breton lembrou que a rede social tem a obrigação de moderar e implementar medidas que limitem a disseminação de notícias falsas no mercado europeu ao abrigo do Regulamento dos Mercados Digitais (DMA), pediu a colaboração com as autoridades e deu 24 horas para que a rede social respondesse.
Our policy is that everything is open source and transparent, an approach that I know the EU supports.
Please list the violations you allude to on 𝕏, so that that the public can see them.
Merci beaucoup.
— Elon Musk (@elonmusk) October 10, 2023
Musk respondeu pouco depois a pedir uma clarificação pública sobre as violações do Regulamento dos Mercados Digitais (DMA) que aconteceram no Twitter.
Desde que Elon Musk assumiu o comando do Twitter, as equipas de moderação de conteúdos foram muito reduzidas, ou mesmo eliminadas, e foi implementado um sistema de ‘Notas da comunidade’ que permitem a qualquer utilizador fazer fact check dos conteúdos publicados na rede social.
Segundo a X, desde o começo do ataque, foram criadas mais de 500 notas da comunidade, incluindo algumas que denunciam vídeos feitos com recurso a videojogos, com contexto errado e não relacionado com o conflito. A X também garantiu que está a melhorar o sistema para mostrar estas notas em mais publicações e que está criar um sistema de notificações para os utilizadores que interagiram com conteúdos que receberam notas da comunidade.
Hoje, a CEO da X, Linda Yaccarino, comunicou através da rede social que já foram removidos “dezenas de milhares” de publicações relacionadas com o conflito e centenas de contas ligadas ao Hamas. A CEO também disse que a rede social está a trabalhar activamente com as autoridades antiterrorismo para impedir a distribuição de conteúdos falsos na plataforma.
Everyday we’re reminded of our global responsibility to protect the public conversation by ensuring everyone has access to real-time information and safeguarding the platform for all our users. In response to the recent terrorist attack on Israel by Hamas, we’ve redistributed… https://t.co/VR2rsK0J9K
— Linda Yaccarino (@lindayaX) October 12, 2023