A Meta e o X aprovaram anúncios direcionados a usuários na Alemanha com discurso de ódio contra muçulmanos e judeus antes das eleições federais no país, segundo uma nova pesquisa da Eko, uma organização sem fins lucrativos voltada à responsabilidade corporativa. As empresas não comentaram o assunto.
Em uma corrida eleitoral já marcada pela discussão sobre a imigração, os pesquisadores testaram se o sistema de revisão de postagens das redes aprovaria ou não submissões de propagandas que continham mensagens de ódio ou violência contra minorias.
A maior parte dos anúncios testados foi aprovada poucas horas depois que foram submetidos para revisão, em fevereiro. As eleições na Alemanha aconteceram neste domingo, dia 23.
No teste, anúncios anti-muçulmanos, palavras de ordem para que imigrantes sejam presos em campos de concentração ou em câmaras de gás e até imagens geradas por inteligência artificial (IA) de mesquitas e sinagogas queimadas foram veiculadas.
Friedrich Merz, da União Democrática Cristã (CDU) partido conservador tradicional, venceu com 28,5% dos votos, seguido pelo partido de extrema direita Alternativa para a Alemanha (AfD), com 20,8%, e o Partido Social-Democrata (SPD), do atual chanceler Olaf Scholz, que ficou em terceiro com 26,4%. Este foi o melhor resultado da AfD desde a 2ª Guerra Mundial.
Os pesquisadores criaram perfis anônimos para veicular as publicações. Em novas contas no Facebook e um perfil verificado no X, eles submeteram os anúncios. Isso garantiu que o teste de moderação de conteúdo e de detecção de discurso de ódio fosse realizado de maneira neutra e sem identificação dos responsáveis.
Mark Zuckerberg, CEO da Meta, anunciou em janeiro que as redes da gigante flexibilizaram as políticas de moderação e checagem de notícias falsas. O sistema adotado pela dona do Facebook é similar ao do X, onde a ferramenta Notas da Comunidade deixa que os usuários adicionem avisos de conteúdo potencialmente ofensivo.
Discurso de ódio agendado
O X aprovou todos os 10 anúncios que continham discurso de ódio submetidos pelos pesquisadores poucos dias antes das eleições, segundo a organização, enquanto a Meta autorizou metade (cinco) deles para veiculação no Facebook - e potencialmente no Instagram -, mas rejeitou os outros cinco.
A justificativa da Meta por recusar o conteúdo foi que a plataforma acreditava haver riscos de sensibilidade política ou social que poderiam influenciar a votação.
No entanto, os cinco anúncios aprovados pela Meta incluíam evidente discurso de ódio, no qual comparava refugiados muçulmanos, por exemplo, a "vírus", "vermes" ou "roedores". Outro método usado na pesquisa foi o de classificar muçulmanos de "estupradores" e pedir que eles fossem esterilizados, queimados ou presos em câmaras de gás. Um anúncio que pedia que sinagogas fossem incendiadas a fim de "para a agenda judaica globalista dos ratos" também foi liberado pela Meta.
Todos os anúncios submetidos como parte da investigação acompanhavam imagens geradas por IA. Os pesquisadores usaram ferramentas de IA, como DALL-E e Stable Diffusion, para criar imagens que incluíssem cenas de imigrantes em câmaras de gás e sinagogas em chamas.
A Eko afirmou que nenhuma das imagens geradas por IA usadas nas postagens foi rotulada como artificialmente gerada - embora a Mera tenha uma política que exige essa divulgação em anúncios sobre questões sociais, eleições ou política.
Por sua vez, a rede de Elon Musk aprovou mensagens que chamavam imigrantes de "ratos" os quais estariam "inundando" o país "para roubar nossa democracia" e um insulto antissemita onde sugeriam que judeus mentiam sobre mudanças climáticas para destruir a indústria europeia e acumular riqueza.
Outro anúncio que o X permitiu atacava o SPD, partido de centro-esquerda que lidera a coalizão governante da Alemanha, com uma alegação falsa de que o partido queria acolher 60 milhões de refugiados muçulmanos do Oriente Médio. O X também aprovou uma postagem que sugeria que "esquerdistas" desejam "fronteiras abertas" e pediam o extermínio de "estupradores" muçulmanos.
Elon Musk usou a rede social - onde tem mais de 220 milhões de seguidores - para intervir nas eleições alemãs. Em dezembro, o bilionário pediu aos eleitores alemães que apoiassem o partido de extrema-direita AfD para "salvar a Alemanha". Ele também participou de uma transmissão ao vivo com a líder do AfD, Alice Weidel, no X.
Os pesquisadores da Eko restringiram o alcance dos anúncios de teste antes que fossem programados. Segundo eles, essa abordagem garantia que o conteúdo em si das postagens não fosse visto por ninguém e apenas testasse a eficácia do sistema de moderação das plataformas.
Os testes destacam falhas na forma com que as plataformas afirmam moderar o conteúdo. No caso do X, não é claro se a gigante realiza qualquer moderação, afinal todos os dez posts foram aprovados.
Os resultados também sugerem que as redes poderiam gerar receita ao distribuir discurso de ódio, segundo a Eko.
"Nossos resultados indicam que os sistemas de moderação de anúncios da Meta, baseados em IA, continuam fundamentalmente falhos, apesar do Ato de Serviço Digitais (DSA, na sigla em inglês) estar em pleno vigor", afirmou um porta-voz da Eko ao Tech Crunch.
DSA é uma legislação da União Europeia (UE) para regular as plataformas digitais, em especial as grandes empresas de tecnologia. A lei entrou em vigor em 2023 e responsabiliza as redes como Facebook, Instagram e X pela disseminação de conteúdo odioso. "Ao invés de fortalecer seu processo de revisão de postagens ou políticas de discurso de ódio, a Meta parece estar regredindo de forma geral", diz o porta-voz que cita o recente passo atrás da empresa quanto às políticas de moderação de checagem de informações falsas como um sinal de "regressão ativa".
A Eko apresentou o estudo à Comissão Europeia, que supervisiona a aplicação de aspectos-chave do DSA para as duas redes sociais. A instituição também compartilhou os resultados com as empresas, mas elas não se posicionaram.
X e Meta são investigados pela UE. Os processos são motivados pela insegurança eleitoral e conteúdo ilegal disponível nas plataformas.
Sanções confirmadas pelo DSA podem resultar em multas de até 6% de faturamento global anual das gigantes, enquanto a não conformidade sistêmica pode bloquear de forma temporária o acesso regional às redes.
Por enquanto, a UE ainda avalia as investigações sobre a Meta e o X, de modo que, enquanto não houver decisões confirmadas, qualquer sanção motivada pelo DSA permanece incerta.