Mostrando postagens com marcador meta. Mostrar todas as postagens
Mostrando postagens com marcador meta. Mostrar todas as postagens

domingo, 12 de janeiro de 2025

A máscara da Meta caiu


Donald Trump ainda não assumiu a presidência, mas as big techs já mostraram seus reais interesses por trás da suposta “luta pela liberdade de expressão”.


Intercept Brasil

No dia do anúncio da Meta, bati um papo com o Francisco Brito Cruz, diretor-executivo do InternetLab, um centro independente de pesquisa que atua na intersecção entre direito e tecnologia.

Quando eu perguntei o que a Meta teria a ganhar abraçando o trumpismo e com essa “Elon Muskização”, o Chico disse que, na verdade, a pergunta certa é: o que ela tinha a ganhar antes, tentando agradar aos democratas e à imprensa? “É mais uma renúncia a esse lado do que qualquer coisa. Eles vão parar de performar essa tentativa de agradar,” ele explicou.

Talvez isso valha para o combate à desinformação também. Ao longo dos últimos anos, nós assistimos à empresa declarar para autoridades, tribunais e jornalistas que estava fazendo de tudo para combater a desinformação que se espalhou como fogo em mato seco nas suas plataformas. Até 2022, a empresa dizia ter investido mais de US$ 100 milhões em seus programas de checagem de fatos.

Apesar dessas declarações, vimos em repetidas ocasiões como a desinformação espalhada e distribuída nas redes da Meta causou danos na vida real. Em Mianmar, o discurso de ódio e fake news disseminada no Facebook contribuíram para o genocídio contra a minoria étnica Rohingya.

Nem é preciso ir longe: ficou amplamente documentado como o Facebook foi usado para organizar e amplificar a invasão do Congresso norte-americano em 6 de janeiro de 2021.

Fora o impacto mais granular, no nível individual, de pessoas cujas vidas foram afetadas pela desinformação e que não viraram notícia. Tudo isso mostra que, apesar de dizer que tinha o combate à desinformação como prioridade, os esforços ainda eram, no mínimo, insuficientes.

Por anos, a Meta contou com a parceria com agências de checagem de fatos como forma de dar mais contexto ao conteúdo mais viral de suas plataformas. É verdade que, pela escala, a checagem esteve longe de dar conta do universo desinformativo das plataformas, mas é uma atividade crucial e necessária para manter a sociedade informada.

Nesta semana, a Meta não só anunciou que vai encerrar a parceria com as agências como puxou o tapete delas: em seu vídeo, Mark Zuckerberg acusou os checadores de terem viés político e disse que o sistema promovia censura.

Se a desinformação era uma preocupação da empresa, agora não é mais. Ou, pelo menos, não é mais necessário fingir e performar. Mas essa virada não passou batido pelas autoridades brasileiras. Em um ofício enviado à Meta na quarta-feira, 8 de janeiro, o Ministério Público Federal pediu que a empresa explique se as medidas anunciadas valerão para o Brasil e detalhe as mudanças.

Na nota, o MPF apontou que as novidades “alteram radicalmente” o que a Meta havia informado anteriormente ao próprio MPF sobre as providências tomadas a fim de enfrentar a desinformação.

Mas nem tudo está perdido. Pessoalmente, não acredito que sair das redes sociais seja o caminho. Talvez eu até já tenha desejado isso e concordo que devemos discutir como usar esses espaços de modo mais saudável.

Mas não acho justo que tenhamos que abdicar das relações e conexões que construímos nessas arenas virtuais cada vez que um bilionário decide pivotar a maneira como as empresas operam, tornando as plataformas piores. É hora de retomar o controle e fazer valer o poder que nós, usuários, temos. Sem nós, as redes sociais não são nada.

Qual é o caminho, então? Especialistas, advogados e ativistas mundo afora estão tentando descobrir e viabilizar novas alternativas. Uma grande aposta tem sido redes como Mastodon e, mais recentemente, o Bluesky.

Conhecidas como plataformas federadas, elas funcionam através de uma rede de instâncias e servidores independentes construídos sobre um mesmo protocolo. No caso do Mastodon, essas diferentes instâncias têm, cada uma, suas próprias regras, definidas pelos membros.

Viabilizar esse futuro das redes federadas não é simples. Hoje, a grande discussão está ligada ao financiamento e à governança, que acaba ficando na mão de voluntários que administram essas diferentes instâncias.

Qual é a beleza dessas alternativas? O poder fica diluído, impedindo que uma tomada de poder unilateral destrua a rede como um todo e permitindo que as regras sejam construídas de maneira mais democrática e coletiva, em vez de impostas pela direção de uma empresa.

Se um Elon Musk ou um Mark Zuckerberg assumir o controle de uma das instâncias, a rede social pode prosperar independentemente deles. O futuro das redes está em tirar o controle delas das mãos dos oligarcas do Vale do Silício.






Tecnologia 01

Tecnologia 02


👉 Click Verdade - Jornal Missão 👈


quinta-feira, 21 de dezembro de 2023

Meta têm silenciado cada vez mais as vozes de apoio à Palestina no Instagram e no Facebook


Objetivo: censura sistemática do conteúdo palestiniano. É urgente rever as políticas defeituosas; melhorar a transparência


2023 Human Rights Watch

(Nova Iorque) – As políticas e sistemas de moderação de conteúdos da Meta têm silenciado cada vez mais as vozes de apoio à Palestina no Instagram e no Facebook , na sequência das hostilidades entre as forças israelitas e os grupos armados palestinianos , afirmou a Human Rights Watch num comunicado publicado hoje. . O relatório de 51 páginas, “ Promessas Quebradas da Meta: Censura Sistêmica do Conteúdo da Palestina no Instagram e no Facebook ”, documenta um padrão de remoção e exclusão indevida de discurso protegido, incluindo expressão pacífica em apoio à Palestina e debate público sobre os direitos humanos palestinos. A Human Rights Watch descobriu que o problema decorre das políticas falhas da Meta e da sua aplicação inconsistente e errónea, da dependência excessiva de ferramentas automatizadas para moderar conteúdos e da influência governamental indevida sobre a remoção de conteúdos.

“A censura do Meta ao conteúdo em apoio à Palestina acrescenta insulto à injúria em um momento de atrocidades indescritíveis e de repressão que já oprime a expressão palestina”, disse Deborah Brown , vice-diretora interina de tecnologia e direitos humanos da Human Vigilância de los derechos. “As redes sociais são uma plataforma essencial para as pessoas testemunharem e se manifestarem contra os abusos, enquanto a censura da Meta ajuda a apagar o sofrimento palestino.”

A Human Rights Watch analisou 1.050 casos de censura online em mais de 60 países. Embora não sejam necessariamente uma análise representativa da censura, os casos são consistentes com anos de reportagens e advocacia por parte de organizações palestinianas , regionais e internacionais de direitos humanos para expor a censura da Meta a conteúdos que apoiam os palestinianos.

Após o ataque liderado pelo Hamas a Israel em 7 de Outubro de 2023, que matou 1.200 pessoas, a maioria civis, segundo autoridades israelitas, os ataques israelitas a Gaza mataram cerca de 20.000 palestinianos, segundo o Ministério da Saúde de Gaza. As restrições ilegais israelitas à ajuda humanitária contribuíram para uma catástrofe humanitária contínua para os 2,2 milhões de residentes de Gaza, quase metade dos quais são crianças.

A Human Rights Watch identificou seis padrões principais de censura, cada um dos quais se repete em pelo menos 100 casos: remoção de conteúdo, suspensão ou exclusão de contas, incapacidade de interagir com o conteúdo, incapacidade de seguir ou marcar contas, restrições ao uso de recursos como como Instagram/Facebook Live e “shadow locking”, termo que denota uma diminuição significativa na visibilidade de postagens, stories ou contas de um indivíduo sem notificação. Em mais de 300 casos, os utilizadores não conseguiram reivindicar a eliminação de conteúdos ou contas porque o mecanismo para o fazer não funcionou corretamente, deixando-os sem acesso efetivo a uma solução.

Em centenas de casos documentados, a Meta invocou a sua política de “ Organizações e Indivíduos Perigosos ” (DOI), que incorpora totalmente as listas de “organizações terroristas” desenvolvidas pelos Estados Unidos. Meta citou estas listas e aplicou-as amplamente para vetar discursos legítimos relativamente às hostilidades entre Israel e grupos armados palestinianos.

A Meta também aplicou mal as suas regras sobre conteúdo violento e explícito , violência e incitamento , discurso de ódio , nudez e actividade sexual adulta . Utilizou de forma inconsistente a sua abordagem de “ valor jornalístico ”, removendo dezenas de conteúdos que documentam ferimentos e mortes palestinianas e que têm valor noticioso, disse a Human Rights Watch.

A Meta está ciente de que a execução dessas políticas é falha. Num relatório de 2021 , a Human Rights Watch documentou a censura do Facebook ao debate sobre questões de direitos relacionadas com Israel e a Palestina e alertou que Meta estava “silenciando muitas pessoas arbitrariamente e sem explicação”.

Uma investigação independente conduzida pela Business for Social Responsibility e encomendada pela Meta descobriu que a moderação de conteúdo da empresa em 2021 “parece ter tido um impacto negativo nos direitos humanos dos utilizadores palestinianos”, afetando negativamente “a capacidade dos palestinianos de partilhar informação e conhecimento sobre suas experiências conforme elas ocorreram.”

Em 2022, em resposta às recomendações do estudo , bem como às orientações do Meta Oversight Board , a Meta se comprometeu a fazer uma série de mudanças em suas políticas e aplicação de moderação de conteúdo. No entanto, quase dois anos depois, a Meta não conseguiu cumprir as suas promessas e responsabilidades em matéria de direitos humanos, concluiu a Human Rights Watch. As promessas quebradas da Meta repetiram e amplificaram padrões passados ​​de abuso.

A Human Rights Watch partilhou as suas conclusões com a Meta e procurou saber a reação da Meta. Em resposta, Meta citou a sua responsabilidade em matéria de direitos humanos e os princípios fundamentais dos direitos humanos como orientadores das suas “medidas imediatas de resposta a crises” desde 7 de Outubro.

Para cumprir as suas responsabilidades de devida diligência em matéria de direitos humanos , a Meta deve alinhar as suas políticas e práticas de moderação de conteúdo com os padrões internacionais de direitos humanos, garantindo que as decisões de remoção de conteúdo sejam transparentes, consistentes e não excessivamente amplas ou tendenciosas.

A Meta deveria permitir a liberdade de expressão nas suas plataformas, inclusive sobre violações dos direitos humanos e movimentos políticos, disse a Human Rights Watch. Deveria começar por rever a sua política de “organizações e indivíduos perigosos” para torná-la consistente com os padrões internacionais de direitos humanos. A Meta deve auditar a sua política sobre conteúdos relevantes para garantir que não elimina conteúdos de “interesse público” e deve garantir a sua implementação equitativa e não discriminatória. Deve também realizar a devida diligência sobre as implicações para os direitos humanos das alterações temporárias nos seus algoritmos de recomendação que introduziu após a eclosão da guerra de Israel contra o grupo islâmico Hamas.

“Em vez de desculpas e promessas vazias, Meta deveria demonstrar que leva a sério a abordagem da censura relacionada à Palestina de uma vez por todas, tomando medidas concretas em direção à transparência e à reparação”, disse Brown.

Fonte: Human Rights Watch

                           



 

 

Comentários Facebook