A recente eleição presidencial nos Estados Unidos encerrou um ano sem precedentes, no qual até dois bilhões de pessoas eram esperadas para votar em eleições em algumas das maiores democracias do mundo, incluindo Índia, Indonésia, México e União Europeia. Como uma empresa que opera plataformas onde o discurso público acontece, o Meta entende a responsabilidade que tem de proteger a capacidade das pessoas de fazerem suas vozes serem ouvidas e garantir que estamos preparados para as muitas eleições ao redor do mundo.
Desde 2016, temos evoluído nossa abordagem em relação às eleições para incorporar as lições que aprendemos e ficar à frente das ameaças emergentes. Temos uma equipe dedicada responsável pelos esforços de integridade eleitoral intercompanhia do Meta, que inclui especialistas de nossas equipes de inteligência, ciência de dados, produto e engenharia, pesquisa, operações, conteúdo e políticas públicas e jurídicas. Em 2024, operamos diversos centros de operações eleitorais ao redor do mundo para monitorar e reagir rapidamente a questões que surgiram, incluindo em relação às principais eleições nos EUA, Bangladesh, Indonésia, Índia, Paquistão, Parlamento Europeu, França, Reino Unido, África do Sul, México e Brasil.
Com a eleição nos EUA concluída, estamos em posição de compartilhar algumas das tendências que vimos em nossas plataformas e explicar como buscamos equilibrar a proteção da capacidade das pessoas de se expressarem com a segurança das pessoas ao longo do ano.
Possibilitando a Livre Expressão
Encontrar o equilíbrio entre permitir que as pessoas façam suas vozes serem ouvidas e manter as pessoas seguras é algo que nenhuma plataforma conseguirá acertar 100% do tempo. Sabemos que, ao aplicar nossas políticas, nossas taxas de erro são muito altas, o que atrapalha a livre expressão que nos propusemos a permitir. Com muita frequência, conteúdos inofensivos são removidos ou restringidos e muitas pessoas são penalizadas injustamente. Ao longo do ano, buscamos atualizar e aplicar nossas políticas de conteúdo de forma justa para que as pessoas possam fazer suas vozes serem ouvidas, e continuaremos a trabalhar nisso nos próximos meses.
- Lançamos controles de conteúdo político no Facebook, Instagram e Threads para dar às pessoas a capacidade de ter mais conteúdo político recomendado para elas, se desejarem. Esses controles foram lançados nos EUA e estão em processo de implementação global.
- Permitimos que as pessoas façam perguntas ou levantem preocupações sobre os processos eleitorais em conteúdos orgânicos. No entanto, não permitimos alegações ou especulações sobre corrupção eleitoral, irregularidades ou viés quando combinadas com um sinal de que o conteúdo está ameaçando violência. Esclarecemos nossas políticas para fazer essa distinção. Para conteúdo pago, proibimos anúncios que questionem a legitimidade de uma eleição futura ou em curso, como fazemos desde 2020.
- Atualizamos nosso sistema de penalidades no início de 2023 para torná-lo mais justo na proteção da capacidade das pessoas de fazerem suas vozes serem ouvidas, ao mesmo tempo em que permanecemos eficazes na aplicação contra pessoas que violam persistentemente nossas políticas.
- Realizamos auditorias anuais de palavras que designamos como insultos sob nossa política de Discurso de Ódio, priorizando mercados com eleições próximas, com o objetivo de manter listas atualizadas que protejam comunidades vulneráveis, ao mesmo tempo em que garantimos que não exageramos na aplicação em relação ao discurso político.
- Também atualizamos nosso protocolo de penalidades relacionado a figuras públicas suspensas por violações durante períodos de agitação civil, atualizando a política para ajudar a garantir que os americanos pudessem ouvir dos candidatos à presidência em condições iguais. Comprometemo-nos com revisões periódicas para determinar se penalidades aprimoradas são justificadas.
Ao longo das eleições ao redor do mundo em 2024, conectamos as pessoas com informações confiáveis sobre votação por meio de notificações no aplicativo no Facebook e Instagram.
- Durante as eleições gerais dos EUA em 2024, lembretes no topo do feed no Facebook e Instagram receberam mais de 1 bilhão de impressões. Esses lembretes incluíam informações sobre registro para votar, votação por correio, votação antecipada pessoalmente e votação no dia da eleição. As pessoas clicaram nesses lembretes mais de 20 milhões de vezes para visitar sites governamentais oficiais para mais informações.
- Também trabalhamos com autoridades eleitorais estaduais e locais para enviar Alertas de Votação e enviamos mais de 765 milhões de notificações no Facebook desde 2020. Esta é uma ferramenta que pode se adaptar conforme necessário às situações em evolução no terreno – por exemplo, se determinados locais de votação precisassem de horários estendidos no dia da eleição.
- Executamos um intersticial de Página de Resultados de Pesquisa no Facebook e Instagram nos EUA, o que significa que quando as pessoas pesquisavam termos relacionados às eleições de 2024, eram mostrados links para fontes oficiais com informações sobre como, quando e onde votar. No Instagram, continuamos a destacar adesivos de Story direcionando as pessoas para informações oficiais de votação. Também continuamos a executar o Centro de Informações de Votação no Facebook.
- As notificações no topo do feed alcançaram milhões de pessoas em países que realizaram eleições ao redor do mundo em 2024, incluindo:
- No Reino Unido, nosso Lembrete do Dia da Eleição alcançou 43,6 milhões de pessoas no Facebook e Instagram, com quase 900 mil pessoas clicando para se registrar para votar ou verificar seu status de registro.
- Na UE, os usuários interagiram com essas notificações mais de 41 milhões de vezes no Facebook e mais de 58 milhões de vezes no Instagram.
- Na Índia, onde o alerta de votação foi enviado pelo Facebook em 17 de abril antes das Eleições Nacionais. O alerta foi lançado a partir da página do Facebook da Comissão Eleitoral da Índia e alcançou 145 milhões de usuários, direcionando as pessoas para obter mais informações através de https://elections24.eci.gov.in/. A Comissão Eleitoral da Índia também implementou o API do WhatsApp para executar campanhas de lembretes de votação alcançando cerca de 400 milhões de usuários.
- Nas eleições locais no Brasil, os usuários interagiram com notificações de lembretes cerca de 9,7 milhões de vezes no Facebook e Instagram.
- Na França, os usuários clicaram nessas notificações no aplicativo mais de 599 mil vezes no Facebook e mais de 496 mil vezes no Instagram.
O Meta também continua a oferecer transparência líder na indústria para anúncios sobre questões sociais, eleições e política. Anunciantes que veiculam esses anúncios devem concluir um processo de autorização e incluir um aviso de «pago por» disclaimer. Esses anúncios são então armazenados em nossa Biblioteca de Anúncios disponível publicamente por sete anos. Este ano, continuamos a proibir novos anúncios políticos, eleitorais e de questões sociais nos EUA durante a última semana da campanha eleitoral, como fazemos desde 2020, porque nos últimos dias de uma eleição pode não haver tempo suficiente para contestar novas alegações. Desde janeiro de 2024, em certos casos, também exigimos que os anunciantes divulguem quando usam IA ou outras técnicas digitais para criar ou alterar um anúncio político ou de questão social.
Monitorando o Impacto da IA
No início do ano, muitas pessoas alertavam sobre o impacto potencial da IA generativa nas eleições futuras, incluindo o risco de deepfakes generalizados e campanhas de desinformação habilitadas por IA. Do que monitoramos em nossos serviços, parece que esses riscos não se materializaram de forma significativa e que qualquer impacto desse tipo foi modesto e limitado em escopo.
- Embora tenha havido casos de uso confirmado ou suspeito de IA dessa forma, os volumes permaneceram baixos e nossas políticas e processos existentes se mostraram suficientes para reduzir o risco em torno de conteúdo de IA generativa. Durante o período eleitoral nas principais eleições listadas acima, as classificações de conteúdo de IA relacionadas a eleições, política e tópicos sociais representaram menos de 1% de todas as desinformações verificadas.
- Como parte de nossos esforços para evitar que as pessoas usem o gerador de imagens Meta Imagine AI para criar deepfakes relacionados a eleições, rejeitamos 590.000 solicitações para gerar imagens do Presidente eleito Trump, Vice-Presidente eleito Vance, Vice-Presidente Harris, Governador Walz e Presidente Biden no mês que antecedeu o dia da eleição.
- Também monitoramos de perto o potencial uso de IA generativa por campanhas de influência encobertas – o que chamamos de redes de Comportamento Inautêntico Coordenado (CIB) – e descobrimos que elas tiveram apenas ganhos incrementais de produtividade e geração de conteúdo usando IA generativa. Isso não impediu nossa capacidade de interromper essas operações de influência porque nos concentramos no comportamento quando investigamos e derrubamos essas campanhas, não no conteúdo que postam – seja criado com IA ou não.
- Às vésperas das eleições nos EUA, exigimos que a IA do Meta respondesse a perguntas sobre quando e como votar com links para fontes autorizadas que pudessem oferecer as informações mais atualizadas. No dia da eleição, também exigimos que a IA do Meta respondesse a certas perguntas sobre os candidatos e resultados da eleição direcionando as pessoas para verificar com fontes autorizadas até que um vencedor fosse projetado por várias organizações de notícias.
- Ao longo de 2024, cooperamos com outros na nossa indústria para combater ameaças potenciais do uso de IA generativa. Por exemplo, em fevereiro de 2024, assinamos o Acordo de Eleições de IA ao lado de dezenas de outros líderes da indústria, comprometendo-nos a ajudar a impedir que conteúdos enganosos de IA interfiram nas eleições globais deste ano. Na Índia, lançamos uma linha direta do WhatsApp em parceria com a Aliança de Combate à Desinformação interindustrial, que incluía a criação de uma Unidade de Análise de Deepfakes pioneira no mundo para fornecer avaliações de qualquer conteúdo digital em áudio ou vídeo que os usuários suspeitassem ser deepfakes. E antes das Eleições do Parlamento Europeu, o Meta financiou e apoiou a Rede de Padrões de Verificação de Fatos Europeus (EFCSN) em um projeto destinado a melhorar as habilidades e capacidades dos verificadores de fatos europeus em desmascarar e combater a desinformação gerada por IA.
Prevenindo a Interferência Estrangeira
Este ano, nossas equipes derrubaram cerca de 20 novas operações de influência encoberta ao redor do mundo, incluindo no Oriente Médio, Ásia, Europa e EUA.
- A Rússia continua sendo a principal fonte das operações de influência encoberta que interrompemos até o momento – com 39 redes interrompidas no total desde 2017. As fontes mais frequentes de interferência estrangeira são o Irã, com 31 redes CIB, e a China, com 11.
- A maioria das redes CIB que interrompemos teve dificuldade em construir audiências autênticas, e algumas usaram curtidas/seguidores falsos para parecerem mais populares do que realmente eram. Por exemplo, derrubamos uma rede CIB originária principalmente da região da Transnístria da Moldávia, e direcionada a audiências de língua russa na Moldávia. Removemos essa campanha antes que pudessem construir audiências autênticas em nossos aplicativos.
- A grande maioria das redes CIB que interrompemos globalmente tentou se espalhar por muitos aplicativos online, incluindo os nossos, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest e mais. Vimos várias operações de influência transferirem grande parte de suas atividades para plataformas com menos salvaguardas do que as nossas. Por exemplo, vídeos fictícios sobre as eleições nos EUA (avaliados pela comunidade de inteligência dos EUA como ligados a operações de influência baseadas na Rússia) foram postados no X e Telegram em vez de em nossos aplicativos. Em um número mínimo de instâncias em que pessoas nos EUA repostaram esse conteúdo em nossos aplicativos, rotulamos o conteúdo como relatado para estar ligado a atores de influência russos.
- A grande maioria das redes CIB executava seus próprios sites, provavelmente para resistir às derrubadas por qualquer empresa. A maior e mais persistente operação desse tipo é conhecida como Doppelganger, que usa uma vasta rede de sites falsos, incluindo alguns que imitam notícias e entidades governamentais legítimas. Criamos o maior repositório público de sinais de ameaça do Doppelganger, expondo mais de 6.000 domínios desde 2022, para que pesquisadores e outras equipes investigativas também possam agir, além de bloqueá-los para que não sejam compartil
FONTE