A nova política da Meta em moderação de conteúdo: debates que não se esgotam

Fonte: site do PT
Por Lauro Accioly Filho* [Informe OPEU] [Elon Musk] [Zuckerberg]
Seguindo os passos do X (antigo Twitter), a Meta abandona seu compromisso com as políticas de fact-checking, ao adotar mudanças que representam um afastamento das iniciativas de combate à desinformação e à proliferação de discursos de ódio. No site da empresa, ainda permanece a declaração de sua missão: “Construir um futuro de conexão humana possível com a tecnologia”.
Embora seja possível observar quantitativamente o cumprimento dessa missão, conectando milhões de pessoas, surge uma questão crucial neste novo cenário: qual é a qualidade dessa conexão? De que vale conectar milhões de pessoas quando uma parcela significativa utiliza essa conexão para distorcer conversas ou tornar o ambiente hostil e inseguro para determinados grupos?
O debate se torna ainda mais urgente diante do impacto social das plataformas digitais, reforçando a importância de refletir sobre o papel das grandes empresas de tecnologia na construção de espaços verdadeiramente seguros e inclusivos. Todavia, é preciso descascar as diversas camadas que permeiam este contexto, especialmente, os pontos que advêm da polarização política que permanece ávida no mundo.
O papel de Musk na mudança da moderação de conteúdo
A linha tênue entre liberdade de expressão e discurso de ódio se torna ainda mais evidente, à medida que o cenário de polarização política se intensifica. Essa polarização dificulta uma compreensão mais técnica e clara sobre os limites entre o exercício legítimo da liberdade de falar e a prática de injúria. Nesse contexto, a moderação de conteúdo tem sido alvo de inúmeras críticas, muitas vezes acusada de ser uma medida autoritária. Esse debate foi um dos principais motivadores da compra do Twitter por Elon Musk em 2022, especialmente após a plataforma suspender perfis de extrema direita que violavam políticas relacionadas a questões de gênero.
Segundo matéria da BBC Brasil, Elon Musk, por um período, apresentou-se como moderado, identificando-se como liberal nos costumes e conservador na economia. Seus interesses políticos começaram a mudar durante a pandemia, quando passou a usar as redes sociais como principal fonte de informação. Assim como outros integrantes do Vale do Silício, Musk passou a questionar a gravidade da covid-19 e a necessidade de medidas como os lockdowns. Sua aproximação com o Partido Republicano se intensificou de forma mais decisiva após um de seus filhos iniciar um processo de transição de gênero. A partir desse momento, Musk começou a declarar que ideias progressistas estavam sendo “impostas” à sociedade, referindo-se a elas como o “vírus woke”. O termo ganhou grande repercussão e se tornou central no debate político dos Estados Unidos.
A definição de woke varia, dependendo de quem o utiliza. Originalmente criado por movimentos de justiça racial no século 20, o termo representava estar politicamente consciente e atento às injustiças sociais e à desigualdade racial. Nos últimos anos, porém, conservadores passaram a usar woke como um termo genérico, frequentemente pejorativo, para criticar valores progressistas. Essa ressignificação ganhou força em meio às guerras culturais nos Estados Unidos, com democratas e republicanos se enfrentando em temas como direitos LGBTQ+ e a inclusão da educação racial nas escolas.
Definição de woke depende de quem utiliza o termo e do interesse envolvido nesse uso (Fonte: EpicTopic10.com/Flickr)
Em vista disso, com a proposta de redesenhar a praça pública digital sem vieses políticos, Elon Musk realizou cortes significativos na equipe de moderação de conteúdo. Essa equipe desempenhava um papel crucial em lidar com compromissos que o próprio Musk havia declarado intenção de manter, como a fiscalização e o banimento de bots e trolls usados para manipular a opinião pública. Além disso, era responsável por combater discursos de ódio e casos de assédio na plataforma.
Esse cenário tende a se perpetuar nos Estados Unidos, devido à forte polarização em torno do tema. Enquanto os democratas defendem a remoção de conteúdos desinformativos, os republicanos preferem evitar essa remoção, alegando que se trata de censura, mesmo quando reconhecem que o conteúdo é impreciso. Um estudo mostrou que a desinformação alinhada aos republicanos é mais recorrente, o que contribui para diferenças nas preferências de moderação de conteúdo entre democratas e republicanos. Em outras palavras, os republicanos percebem os sistemas de moderação como desproporcionalmente direcionados contra eles, o que intensifica o embate político em torno dessas políticas.
Uma conferência realizada em 2023 na Universidade de Harvard trouxe à tona questões importantes sobre moderação de conteúdo e liberdade de expressão. Um dos pontos discutidos foi a adoção de leis na Flórida e no Texas que impõem às empresas privadas de mídia social os padrões da Primeira Emenda, tradicionalmente aplicados apenas ao governo. Essas leis exigem que as plataformas reduzam drasticamente a moderação de conteúdos como discurso de ódio, desinformação e ofensas cotidianas, em contraste com os níveis atuais de controle.
Outro tema central foi a pressão do governo de Joe Biden para que plataformas removam desinformação sobre a covid-19, o que levantou o debate sobre uma possível violação da liberdade de expressão. Esse tipo de influência governamental, conhecido como jawboning, ocorre quando autoridades persuadem (ou até forçam) empresas a removerem conteúdos, a ponto de tal remoção ser considerada, legalmente, uma ação governamental – sujeita, portanto, aos limites impostos pela Primeira Emenda.
Entre as propostas levantadas no debate, destacou-se a ideia de reduzir a moderação de conteúdo e permitir que os usuários escolham, em um mercado competitivo de provedores de redes sociais, quais regras de discurso desejam seguir. Isso daria aos indivíduos maior controle sobre o ambiente digital em que optam por participar. No entanto, muitos críticos consideram essa abordagem superficial, argumentando que ela ignora pilares essenciais para a democracia, como a tolerância e a integridade da informação.
Além desses debates, surge uma nova discussão sobre as possíveis práticas monopolistas de Elon Musk, especialmente com seu interesse em adquirir o TikTok. Inicialmente criticado por Donald Trump, que associava a plataforma aos interesses da China e a considerava uma ameaça à segurança nacional, devido à coleta de dados dos usuários, Trump mudou sua postura à medida que percebeu o alto engajamento político que o TikTok gerava, com estatísticas mostrando grande alcance em suas campanhas. Diante desse cenário, quais desafios poderiam emergir com a aquisição do TikTok por Musk? Estaríamos diante de um risco de monopólio nas mídias sociais?
Deepfakes, conspirações e genocídio: os perigos da nova proposta de moderação de conteúdo da Meta
O CEO da Meta, Mark Zuckerberg, anunciou que a empresa encerrará seu programa de verificação de fatos de terceiros nos EUA e adotará, em seu lugar, um sistema de “notas da comunidade” baseado em crowdsourcing, uma abordagem já implementada pelo X (antigo Twitter) sob a nova administração de Elon Musk. Essa mudança tem gerado grande repercussão, com a proposta de permitir mais liberdade de expressão e reduzir as restrições nas discussões.
Em uma nota pública, Zuckerberg explicou como funcionará a nova adaptação na Meta, segundo a qual a empresa não mais escreverá as Notas da Comunidade nem decidirá quais delas serão destacadas. Agora, elas serão redigidas e classificadas por usuários colaboradores. Semelhante ao que ocorre no X, as Notas da Comunidade exigirão o consenso entre pessoas com diversas perspectivas, visando a evitar avaliações tendenciosas. Dessa forma, a Meta se isenta da responsabilidade pela verificação de fatos. ‘‘Não é certo que certas coisas possam ser ditas na Televisão ou no plenário do Congresso, mas não nas plataformas sociais’’, alega Zuckerberg.
Esse sistema de moderação de conteúdo se torna complexo, à medida que pode ser manipulado por maus atores: indivíduos mal-intencionados podem denunciar conteúdo ou outras pessoas de forma desonesta, com o objetivo de ganhar espaço na plataforma e censurar quem não concorda com suas opiniões. Por isso, qualquer dado coletado de sistemas de moderação crowdsourced deve ser tratado com extrema cautela antes de ser acionado. Embora o crowdsourcing possa ser útil como um sistema de alerta, ele deve ser complementado por mecanismos de revisão mais robustos que avaliem a qualidade e a veracidade dos relatórios.
Diante das recentes mudanças propostas pela Meta, diversos casos de desinformação relacionados ao incêndio em Los Angeles, por exemplo, têm ganhado notoriedade. Entre eles, destaca-se a disseminação de teorias da conspiração que atribuem o incêndio a uma suposta ação deliberada de democratas, com o objetivo de acelerar a desindustrialização dos Estados Unidos. Um caso ainda mais alarmante envolveu um vídeo gerado por deepfake, publicado na plataforma X, que acumulou mais de 500.000 visualizações. O vídeo, criado com Inteligência Artificial, alegava falsamente que o fogo estava se aproximando do letreiro de Hollywood. Embora as Notas da Comunidade tenham sido adicionadas para verificar os fatos, a rápida disseminação do conteúdo demonstra os perigos do uso de tecnologia para distorcer a realidade.
A recusa da Meta em assumir responsabilidade pela moderação de conteúdo em suas plataformas não é novidade. Segundo acadêmicos, jornalistas e investigadores da ONU, o gigante das mídias sociais desempenhou um papel significativo na explosão de um conflito étnico em 2017, que resultou na morte e no deslocamento de centenas de milhares de muçulmanos Rohingya no norte de Mianmar. O caso ganhou repercussão internacional, devido à evidente inação da empresa. Apesar de reconhecer os problemas, o Facebook demorou a implementar medidas efetivas, investindo pouco em moderadores locais ou em ferramentas específicas para combater a desinformação e os discursos de ódio que fomentavam narrativas negativas e incitavam a violência contra esse grupo étnico.
A dimensão do caso expôs uma lacuna crítica: não há mecanismos internacionais eficazes para responsabilizar empresas como o Facebook. O Tribunal Penal Internacional, por exemplo, não tem jurisdição sobre corporações. Enquanto leis internacionais priorizam a proteção de interesses empresariais, instrumentos legais robustos para responsabilizar essas empresas por violações de direitos humanos permanecem inexistentes.
Uma exposição organizada pelo Holocaust Memorial Museum, em Washington, D.C., capital dos Estados Unidos, explora os impactos da ausência de moderação de conteúdo na provocação do genocídio de milhares de muçulmanos Rohingya no norte de Mianmar, em Burma. Esse contexto torna ainda mais complexo o debate sobre liberdade de expressão e seus custos. A linha tênue que define esse direito fundamental revela os perigos recorrentes da história, onde o ódio, quando não controlado, pode prevalecer sobre a vida de milhares de pessoas.
(Arquivo) Exposição The Burma’s Path to Genocide, no Holocaust Memorial Museum (Fonte: Flickr institucional)
Desafios da nova política da Meta ao Brasil: o que está em jogo?
O Brasil tem uma regulação significativa no âmbito on-line, destacando-se pelo Marco Civil da Internet, sancionado em 23 de abril de 2014, um dia após sua aprovação pelo Senado. Reconhecida como uma legislação inovadora e referência internacional, a lei foi pioneira ao abordar temas como a neutralidade de rede, a proteção da privacidade e a segurança dos dados pessoais.
Ainda há, no entanto, desafios importantes a serem enfrentados, como o combate à desinformação na Internet, a regulação da Inteligência Artificial (IA) e a promoção de maior transparência na atuação das plataformas de redes sociais. Nesse contexto, a recente decisão da Meta de encerrar seu programa de checagem de fatos, inicialmente apenas nos Estados Unidos, mas com planos de expandir para outros países, levanta preocupações sobre os possíveis impactos dessa medida no cenário brasileiro.
A Meta já enfrentou problemas significativos no Brasil, como a venda ilegal de áreas protegidas da Amazônia em sua plataforma. A empresa só tomou medidas concretas oito meses após a BBC lançar um documentário revelando que usuários do Facebook estavam utilizando o Facebook Marketplace para negociar ilegalmente pedaços da Floresta Amazônica.
O documentário expôs casos em que áreas localizadas dentro de unidades de conservação, como a Floresta Nacional do Aripuanã, no Amazonas, e a Terra Indígena Uru Eu Wau Wau, em Rondônia, estavam sendo anunciadas para venda. Criado para negociações de itens pessoais e propriedades rurais, o Facebook Marketplace se tornou, nesse caso, um canal para atividades ilegais, destacando falhas graves na moderação de conteúdo da plataforma e na prevenção de crimes ambientais.
A decisão da Meta mobilizou diversas organizações da sociedade civil brasileira, que consideram a postura da empresa negligente diante dos impactos concretos da violência on-line. Além disso, apontam para um problema estrutural: a concentração de poder nas mãos de grandes corporações que atuam como árbitros do espaço público digital, ignorando frequentemente as consequências de suas decisões para bilhões de usuários.
Essas preocupações são especialmente relevantes no contexto brasileiro, considerando a replicabilidade de eventos como o ataque ao Capitólio nos Estados Unidos, refletida na invasão e depredação dos prédios públicos em Brasília, no 8 de Janeiro. O episódio destaca os riscos da desinformação e do discurso de ódio amplificados por plataformas digitais, ressaltando a necessidade de maior responsabilidade e transparência dessas empresas.
* Lauro Henrique Gomes Accioly Filho é pesquisador colaborador do OPEU e mestrando do Programa de Pós-Graduação em Relações Internacionais da Universidade Estadual da Paraíba (UEPB), com período “sanduíche” na American University em Washington, D.C. Contato: lauroaccioly.br@gmail.com.
** Revisão e edição final: Tatiana Teixeira. Este conteúdo não reflete, necessariamente, a opinião do OPEU, ou do INCT-INEU.
*** Sobre o OPEU, ou para contribuir com artigos, entrar em contato com a editora do OPEU, Tatiana Teixeira, no e-mail: professoratatianateixeira@outlook.com. Sobre as nossas newsletters, para atendimento à imprensa, ou outros assuntos, entrar em contato com Tatiana Carlotti, no e-mail: tcarlotti@gmail.com.
Assine nossa Newsletter e receba o conteúdo do OPEU por e-mail.
Siga o OPEU no Instagram, Twitter, Linkedin e Facebook e acompanhe nossas postagens diárias.
Comente, compartilhe, envie sugestões, faça parte da nossa comunidade.
Somos um observatório de pesquisa sobre os Estados Unidos,
com conteúdo semanal e gratuito, sem fins lucrativos.