Mais palavras e menos erros

As plataformas do Meta são construídas para serem locais onde as pessoas possam se expressar livremente. Pode ser complicado. Em plataformas onde bilhões de pessoas podem ter voz, tudo o que há de bom, de ruim e de feio está em exibição. Mas isto é liberdade de expressão.

Em seu discurso de 2019 na Universidade de Georgetown, Mark Zuckerberg argumentou que a liberdade de expressão tem sido a força motriz do progresso na sociedade americana e em todo o mundo, e que inibir o discurso, por melhores que sejam as razões para fazê-lo, muitas vezes fortalece as instituições, as estruturas e o poder existentes. estruturas. em vez de capacitar as pessoas. Ele disse: “Algumas pessoas acreditam que dar voz a mais pessoas está criando divisão em vez de nos unir. Cada vez mais pessoas em todo o espectro acreditam que alcançar os resultados políticos que consideram importantes é mais importante do que cada pessoa ter uma palavra a dizer. Eu acho que é perigoso.

Nos últimos anos, desenvolvemos sistemas cada vez mais complexos para gerir conteúdos nas nossas plataformas, em parte em resposta à pressão social e política para moderar conteúdos. Esta abordagem foi longe demais. Embora bem-intencionados, muitos destes esforços foram expandidos ao longo do tempo, ao ponto de cometermos demasiados erros, frustrando os nossos utilizadores e, muitas vezes, dificultando a liberdade de expressão que pretendíamos permitir. Muito conteúdo inofensivo é censurado, muitas pessoas ficam injustamente presas na “prisão do Facebook” e muitas vezes demoramos muito para responder quando isso acontece.

Queremos resolver este problema e regressar ao compromisso fundamental com a liberdade de expressão. Hoje estamos fazendo algumas mudanças para permanecermos fiéis a esse ideal.

Fim do programa de verificação de fatos de terceiros, mudança para notas da comunidade

Quando lançámos o nosso programa independente de verificação de factos em 2016, tínhamos muito claro que não queríamos ser os árbitros da verdade. Fizemos o que considerávamos ser a melhor e mais razoável escolha na altura, que era transferir essa responsabilidade para organizações independentes de verificação de factos. A intenção do programa era que estes especialistas independentes fornecessem às pessoas mais informações sobre o que veem online, especialmente boatos virais, para que pudessem julgar por si próprios o que viram e leram.

As coisas não foram assim, especialmente nos Estados Unidos. Os especialistas, como todo mundo, têm seus próprios preconceitos e perspectivas. Isto surgiu das escolhas feitas por alguns sobre o que testar e como. Com o tempo, acabamos com muito conteúdo verificado para que as pessoas entendessem que se trata de discurso e debate político legítimo. Nosso sistema então vinculou as consequências do mundo real na forma de rótulos intrusivos e distribuição reduzida. Um programa destinado a informar tornou-se muitas vezes uma ferramenta de censura.

Agora estamos mudando essa abordagem. Acabaremos com o atual programa de verificação de fatos por terceiros nos Estados Unidos e, em vez disso, começaremos a migrar para um programa de Notas da Comunidade. Vimos essa abordagem funcionar em Acreditamos que esta pode ser a melhor maneira de alcançar a nossa intenção original de fornecer às pessoas informações sobre o que estão vendo, e uma forma menos propensa a preconceitos.

  • Assim que o programa estiver instalado e funcionando, o Meta não escreverá notas da comunidade nem decidirá quais exibir. Eles são escritos e avaliados por usuários colaboradores.
  • Assim como acontece no X, as Notas da Comunidade exigirão acordo entre pessoas com opiniões diversas para ajudar a evitar avaliações tendenciosas.
  • Pretendemos ser transparentes sobre como diferentes perspectivas influenciam as notas exibidas em nossos aplicativos e estamos trabalhando na maneira certa de compartilhar essas informações.
  • As pessoas podem se inscrever hoje (Facebook, Instagram, Discussões) pela oportunidade de estar entre os primeiros contribuintes deste programa quando ele estiver disponível.

Planejamos introduzir gradualmente as Community Notes nos Estados Unidos nos próximos meses e continuaremos a melhorá-las ao longo do ano. Durante a transição, eliminaremos nossa verificação de fatos, pararemos de rebaixar o conteúdo verificado e, em vez de sobrepor alertas intersticiais em tela cheia nos quais você precisa clicar antes mesmo de ver a postagem, usaremos rotulagem muito menos intrusiva isso diz que há informações adicionais para quem quiser ver.

Permitir mais discurso

Ao longo do tempo desenvolvemos sistemas complexos de gestão de conteúdos nas nossas plataformas, cuja aplicação é cada vez mais complicada. Como resultado, aplicámos excessivamente as nossas regras, limitando o debate político legítimo, censurando demasiados conteúdos triviais e sujeitando demasiadas pessoas a ações de aplicação frustrantes.

Por exemplo, em dezembro de 2024, removemos milhões de conteúdos todos os dias. Embora essas ações representem menos de 1% do conteúdo produzido diariamente, acreditamos que uma ou duas em cada 10 dessas ações podem ter sido erros (ou seja, o conteúdo pode não ter realmente violado nossas políticas). Isto não leva em conta as ações que tomamos para combater ataques de spam adversários em grande escala. Planejamos expandir nossos relatórios de transparência para compartilhar regularmente números sobre nossos erros, para que as pessoas possam acompanhar nosso progresso. Além disso, incluiremos mais detalhes sobre os erros que cometemos ao aplicar nossas políticas de spam.

Queremos eliminar o problema da missão que tornou as nossas regras demasiado restritivas e demasiado sujeitas a uma aplicação excessiva. Estamos a eliminar uma série de restrições sobre temas como a imigração, a identidade de género e o género, que são objecto de discursos e debates políticos frequentes. Não é justo que coisas possam ser ditas na TV ou no Congresso, mas não nas nossas plataformas. Estas alterações políticas podem levar algumas semanas para serem totalmente implementadas.

Também mudaremos a forma como aplicamos as nossas políticas para reduzir os tipos de erros que são responsáveis ​​pela grande maioria da censura nas nossas plataformas. Até agora utilizámos sistemas automatizados para detectar todas as violações de políticas, mas isto resultou em demasiados erros e demasiado conteúdo censurado que não deveria ter sido censurado. Continuaremos, portanto, a centrar estes sistemas no combate a violações ilegais e de alta gravidade, como o terrorismo, a exploração sexual infantil, as drogas, a fraude e as fraudes. Para violações de políticas menos graves, contaremos com alguém para relatar um problema antes de tomarmos qualquer medida. Também rebaixamos muitos conteúdos que nossos sistemas acreditam que possam violar nossos padrões. Estamos eliminando a maioria desses rebaixamentos e exigindo mais confiança de que o conteúdo viola o restante. E otimizaremos nossos sistemas para exigir um grau de segurança muito maior antes que o conteúdo seja removido. Como parte dessas mudanças, transferiremos as equipes de confiança e segurança que redigem nossas políticas de conteúdo e revisam conteúdo da Califórnia para o Texas e outros locais nos Estados Unidos.

Muitas vezes é dada às pessoas a oportunidade de recorrer das nossas decisões de aplicação e pedir-nos para rever as políticas, mas o processo pode ser frustrantemente lento e nem sempre chega ao resultado certo. Adicionamos pessoal extra a este trabalho e, em muitos casos, agora também exigimos que vários revisores tomem a decisão de remover algo. Estamos trabalhando para facilitar a recuperação de contas e testar a tecnologia de reconhecimento facial, e começamos a usar modelos de inteligência artificial em grandes linguagens (LLM) para fornecer uma segunda opinião sobre alguns conteúdos antes de tomar medidas de fiscalização.

Uma abordagem personalizada ao conteúdo político

A partir de 2021, fizemos alterações para reduzir a quantidade de conteúdo cívico que as pessoas veem (postagens sobre eleições, política ou questões sociais) com base no feedback de nossos usuários de que gostariam de ver menos desse conteúdo. Mas esta foi uma abordagem bastante direta. Começaremos a reintroduzir isso gradualmente no Facebook, Instagram e Threads com uma abordagem mais personalizada para que as pessoas que desejam ver mais conteúdo político em seus feeds possam fazê-lo.

Testamos continuamente como oferecemos experiências personalizadas e recentemente conduzimos testes de conteúdo cívico. Como resultado, começaremos a tratar o conteúdo cívico das pessoas e páginas que você segue no Facebook mais como qualquer outro conteúdo no seu feed, e começaremos a classificar e exibir esse conteúdo com base em sinais explícitos (por exemplo, curtir um pedaço de conteúdo) e sinais implícitos (como visualizações de postagens) que nos ajudam a prever o que é significativo para as pessoas. Também recomendaremos mais conteúdo político com base nesses sinais personalizados e expandiremos as opções que as pessoas têm para controlar a quantidade desse conteúdo que veem.

Estas mudanças são uma tentativa de regressar ao compromisso com a liberdade de expressão que Mark Zuckerberg afirmou no seu discurso em Georgetown. Isto significa estar atento ao impacto que as nossas políticas e sistemas estão a ter na capacidade das pessoas de fazerem ouvir as suas vozes, e ter a humildade de mudar a nossa abordagem quando sabemos que estamos a fazer algo errado.



FONTE

Por Staff

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *