X/Twitter, Facebook e Instagram assinam novo Código de Conduta da UE contra discurso de ódio

Meta, Google, TikTok e X assumiram um compromisso com legisladores europeus para intensificar esforços na prevenção e remoção de discursos de ódio ilegais em suas plataformas. A Comissão Europeia incorporou um conjunto revisado de compromissos voluntários ao Digital Services Act (DSA) na última segunda-feira, buscando ajudar as empresas a demonstrar conformidade com as obrigações da legislação em relação à moderação de conteúdo ilegal.

Quem aderiu ao compromisso?

Diversas plataformas assinaram o “Código de Conduta para Combate ao Discurso de Ódio Ilegal Online Plus”, incluindo:

  • Facebook
  • Instagram
  • TikTok
  • Twitch
  • X (antigo Twitter)
  • YouTube
  • Snapchat
  • LinkedIn
  • Dailymotion
  • Jeuxvideo.com
  • Rakuten Viber
  • Serviços de consumo hospedados pela Microsoft

O código revisado, que expande a versão original lançada em 2016, compromete as empresas signatárias a aumentar a transparência no processo de detecção e redução do discurso de ódio, permitindo que monitores independentes avaliem como as notificações de discurso de ódio são analisadas. Além disso, as plataformas se comprometeram a revisar pelo menos dois terços das notificações de discurso de ódio em até 24 horas.

Declarações e impacto esperado

O comissário europeu Michael McGrath afirmou que o discurso de ódio e a polarização representam ameaças aos valores e direitos fundamentais da União Europeia, além de prejudicarem a estabilidade democrática. Segundo ele, a internet tem amplificado esses efeitos negativos, e a implementação do novo código de conduta busca garantir uma resposta eficaz a esse problema.

Caráter voluntário e desafios

Apesar dos esforços da UE, esses códigos de conduta são voluntários, o que significa que as empresas não enfrentam penalidades caso decidam sair do acordo. Um exemplo disso ocorreu em 2022, quando Elon Musk retirou a X (antigo Twitter) do Código de Práticas de Desinformação, conforme relatado pela BBC.

Embora o compromisso seja uma iniciativa positiva para combater o discurso de ódio, a ausência de consequências legais para quem o descumprir levanta dúvidas sobre sua efetividade a longo prazo, especialmente considerando que empresas podem priorizar seus interesses comerciais em detrimento de tais compromissos voluntários.

A expectativa agora é de que o DSA, que é legalmente vinculante, possa incorporar alguns desses princípios, criando um ambiente de maior responsabilização para as grandes plataformas digitais.

Meta é acusada de usar livros pirateados para treinar IA com aval de Mark Zuckerberg

Um grupo de autores, incluindo o escritor Ta-Nehisi Coates e a comediante Sarah Silverman, entrou com um processo contra a Meta, alegando que o CEO Mark Zuckerberg autorizou o uso de obras protegidas por direitos autorais para treinar modelos de inteligência artificial da empresa. A ação, registrada na Califórnia e tornada pública nesta quarta-feira (10), acusa a Meta de utilizar o LibGen, um repositório russo conhecido por hospedar livros pirateados, no treinamento do Llama AI.

De acordo com documentos judiciais, a Meta admitiu ter removido “todos os parágrafos de direitos autorais do início e do fim” de artigos científicos, uma prática que, segundo a denúncia, foi adotada para ocultar o uso de materiais protegidos. A empresa temia que a divulgação dessas práticas prejudicasse suas negociações com órgãos reguladores. Em um dos trechos do processo, destaca-se a preocupação interna: “Cobertura da mídia sugerindo que utilizamos um banco de dados que sabemos ser pirateado, como o LibGen, pode enfraquecer nossa posição de negociação com reguladores.”

A revelação surge em meio à expansão da Meta no campo da inteligência artificial, com a integração crescente do Llama AI em seus aplicativos e serviços. Recentemente, Zuckerberg também anunciou mudanças polêmicas nas políticas da empresa, como a substituição de verificadores de fatos por Community Notes, o afrouxamento de restrições contra discursos discriminatórios e o aumento da veiculação de conteúdos políticos no Instagram e no Threads.

Essas acusações aumentam a pressão sobre a Meta, que já enfrenta críticas sobre práticas éticas e o uso de dados em suas tecnologias. O caso reacende o debate sobre os limites legais e morais no desenvolvimento de inteligência artificial, especialmente no uso de conteúdo protegido por direitos autorais.

Facebook enfrenta críticas por restringir alcance de veículos de notícias palestinos durante guerra entre Israel e Gaza

Uma investigação da BBC revelou que veículos de notícias palestinos enfrentaram severas restrições no Facebook durante o conflito entre Israel e Gaza. A análise mostrou uma queda de 77% no engajamento das páginas desses veículos após outubro de 2023, em contraste com um aumento de 37% para veículos de notícias israelenses.

Impacto sobre as vozes palestinas

Plataformas como o Facebook e o Instagram tornaram-se vitais para a cobertura da guerra, especialmente em Gaza, onde poucos jornalistas externos tiveram acesso. Páginas como Palestine TV e Wafa foram fontes essenciais para o público global. No entanto, o alcance dessas publicações foi drasticamente reduzido. A Palestine TV, por exemplo, relatou uma queda de 60% na visibilidade de suas postagens, segundo o jornalista Tariq Ziad.

Os jornalistas palestinos levantaram suspeitas de shadow banning — prática em que conteúdo é intencionalmente ocultado sem aviso prévio. Enquanto isso, dados da BBC mostraram que veículos árabes de fora da Palestina, como Al-Jazeera, tiveram um aumento médio de 100% no engajamento no mesmo período.

Resposta da Meta

A Meta, proprietária do Facebook e Instagram, negou qualquer intenção deliberada de suprimir vozes palestinas, alegando que erros podem ter ocorrido devido à complexidade da moderação de conteúdo durante o conflito. Documentos vazados indicaram mudanças no algoritmo do Instagram, que supostamente intensificaram a moderação de comentários de usuários palestinos. A Meta justificou essas ações como resposta ao aumento de discurso de ódio.

“Reconhecemos que cometemos erros, mas qualquer insinuação de que suprimimos deliberadamente uma determinada voz é inequivocamente falsa”, afirmou um porta-voz.

Desafios enfrentados por jornalistas palestinos

Mesmo diante de restrições e riscos de segurança, jornalistas em Gaza continuam trabalhando. Omar el Qataa, fotojornalista em Gaza, destacou que vídeos de massacres frequentemente não alcançam ampla visibilidade devido às políticas das plataformas. Desde o início do conflito, 137 jornalistas palestinos foram mortos, mas muitos permanecem na linha de frente para registrar os acontecimentos.

A reportagem da BBC destaca o impacto dessas restrições na liberdade de expressão e no direito à informação, especialmente em tempos de guerra.

Meta enfrenta problemas técnicos em seus principais serviços: Facebook, Instagram, Threads e WhatsApp

Na última quarta-feira à noite, os serviços do Facebook, Instagram, Threads e WhatsApp, todos pertencentes à Meta, enfrentaram instabilidades que afetaram a conectividade de diversos usuários. A empresa informou que a causa foi um “problema técnico” e garantiu estar trabalhando para solucionar o incidente rapidamente.

De acordo com o site Downdetector, que monitora falhas em aplicações e sites populares, houve um pico de relatórios de interrupções por volta das 19h00 (hora da Europa Central), equivalente às 18h00 em Portugal Continental. As queixas abrangeram dificuldades para acessar os serviços, enviar mensagens e atualizar feeds.

Meta trabalha para normalizar os serviços

A Meta, liderada por Mark Zuckerberg, utilizou a rede social X para comunicar aos usuários que estava ciente do problema e tomando medidas para “normalizar as coisas o mais rapidamente possível”. Apesar dos esforços, os relatos de falhas só começaram a diminuir gradualmente poucas horas depois.

Embora a situação tenha se estabilizado conforme relato da própria companhia, o Downdetector registrou um pequeno aumento nas queixas cerca de uma hora após a aparente normalização, sugerindo que nem todos os problemas haviam sido completamente resolvidos naquele primeiro momento.

Instragram permitirá que usuários resetem suas preferências de conteúdo

O Instagram anunciou uma nova funcionalidade que permitirá aos usuários, especialmente adolescentes, resetar as recomendações de conteúdo em sua plataforma. Essa atualização é parte dos esforços da rede social para melhorar a experiência dos usuários e reforçar a segurança digital, particularmente para jovens que podem acabar expostos a influências prejudiciais ou conteúdos indesejados.

Por que a nova funcionalidade é importante?

Com base na atividade recente e nas contas seguidas, o Instagram frequentemente sugere novos conteúdos no Explore, Reels e Feed. No entanto, nem sempre essas sugestões refletem os interesses reais ou saudáveis dos usuários, especialmente de adolescentes que, por curiosidade, podem acabar acessando conteúdos problemáticos, como influenciadores que promovem transtornos alimentares ou teorias conspiratórias.

Agora, com o novo recurso de “reset”, será possível limpar todas as sugestões de uma só vez. Durante o processo, que estará disponível no menu de preferências de conteúdo, o Instagram incentivará os usuários a revisar e deixar de seguir contas que já não os interessam.

Como funcionará a ferramenta?

A funcionalidade estará acessível globalmente após um curto período de testes. Em três cliques, os usuários poderão redefinir as sugestões de conteúdo. Além disso, adolescentes e adultos poderão aproveitar o recurso, reconhecendo que um feed cheio de sugestões irrelevantes não é um problema exclusivo dos mais jovens.

Essa atualização complementa ferramentas já existentes, como a capacidade de marcar postagens como “interessante” ou “não interessante” e ocultar conteúdos que contenham certas palavras ou frases nos títulos.

Outras medidas de segurança e bem-estar para adolescentes

Nos últimos meses, o Instagram introduziu recursos adicionais voltados para a segurança e bem-estar de adolescentes:

  • Em setembro, a plataforma lançou “Contas Teen”, com configurações mais restritivas para usuários menores de 16 anos.
  • Em outubro, foram anunciadas ferramentas para combater a sextorsão financeira, um problema que afeta predominantemente jovens.

O contexto legal e as preocupações com o algoritmo

O Instagram e sua controladora, Meta, enfrentam um processo coletivo que alega que as plataformas exploram crianças e adolescentes ao expô-los a um feed interminável gerado por algoritmos, projetado para mantê-los engajados. A Meta contesta as alegações, mas as novas ferramentas podem ser vistas como uma tentativa de demonstrar compromisso com o bem-estar dos usuários.

Impacto esperado

A funcionalidade de resetar as recomendações de conteúdo é um avanço importante, pois ajuda os usuários a retomarem o controle de suas experiências na plataforma. Além disso, reforça o posicionamento do Instagram em oferecer um ambiente mais seguro e saudável, especialmente para adolescentes. Ao mesmo tempo, as medidas recentes mostram que a empresa está atenta às críticas e busca formas de equilibrar o uso de algoritmos com práticas éticas e saudáveis.

Zuckerberg não é responsável pelos danos que suas plataformas causam às crianças, diz justiça

Em uma decisão significativa, a juíza federal Yvonne Gonzalez Rogers, em Oakland, Califórnia, declarou que o CEO da Meta Platforms, Mark Zuckerberg, não pode ser considerado pessoalmente responsável em 25 processos que acusam a empresa de causar danos à saúde mental de crianças por meio de redes sociais como Facebook e Instagram.

Argumentos apresentados e decisão judicial

Os processos alegavam que Zuckerberg desempenhou papel central em direcionar a Meta para ocultar os sérios riscos à saúde mental associados ao uso das plataformas, ignorando alertas internos e minimizando publicamente os perigos. No entanto, a juíza rejeitou as alegações contra o CEO, afirmando que não foram apresentadas evidências específicas que demonstrassem sua responsabilidade direta. Segundo Rogers, “o controle sobre a atividade corporativa por si só é insuficiente” para estabelecer culpa pessoal.

A decisão, entretanto, não afeta os processos em andamento contra a Meta como corporação, que continua sendo acusada de priorizar lucros em detrimento da segurança de jovens usuários.

Processos em múltiplos estados

Os processos foram movidos em 13 estados norte-americanos, incluindo Arizona, Geórgia, Marylan, Nova York, Carolina do Norte e Pensilvânia.

Previn Warren, sócio da Motley Rice e advogado dos reclamantes, declarou que seus clientes continuarão reunindo provas para “revelar a verdade sobre como a Big Tech tem conscientemente priorizado os lucros em detrimento da segurança de nossos filhos.”

Contexto e impacto

A decisão ocorre em meio a um cenário de crescente escrutínio sobre a atuação das grandes empresas de tecnologia no que diz respeito à saúde mental de seus usuários, especialmente crianças e adolescentes. As plataformas da Meta, como o Instagram, foram alvos de críticas após revelações de que relatórios internos da empresa reconheciam impactos negativos no bem-estar psicológico de jovens usuários.

Reações e próximos passos

Enquanto a decisão protege Zuckerberg de responsabilidade pessoal, ela não encerra os debates em torno das práticas corporativas da Meta. A empresa permanece sob investigação e enfrentando processos que podem influenciar mudanças regulatórias no setor de tecnologia.

Instagram exibe os vídeos mais populares com melhor qualidade, diz head do aplicativo

Já reparou que alguns dos seus vídeos no Instagram têm uma qualidade menor do que outros? Recentemente, Adam Mosseri, chefe do Instagram, explicou em uma sessão de perguntas e respostas por que isso acontece. A qualidade dos vídeos no Instagram é parcialmente determinada pela quantidade de visualizações.

Mosseri revelou que, se um vídeo não recebe muitas visualizações logo após a postagem, o Instagram pode reduzir a qualidade para economizar recursos. No entanto, se esse vídeo voltar a receber muitas visualizações, a plataforma poderá renderizá-lo em alta qualidade novamente. Ele também explicou que, para usuários com conexão de internet mais lenta, o vídeo é automaticamente transmitido em qualidade inferior, visando manter uma experiência fluida para todos.

Além disso, Mosseri explicou que o Instagram ajusta a qualidade de vídeos com base no desempenho geral e não no comportamento de um único usuário. Criadores que têm vídeos com maior engajamento tendem a ter conteúdos armazenados com qualidade superior, devido ao uso de codificação mais complexa e armazenamento mais caro, em um processo de “escala móvel”, e não de uma regra fixa.

Essa política tem como objetivo exibir o conteúdo da mais alta qualidade possível, dentro das limitações da plataforma e da demanda de visualizações, proporcionando uma experiência otimizada tanto para os criadores quanto para os espectadores.

Sair da versão mobile