Como usuários o X/Twitter estão ficando milionários publicando notícias falsas

A BBC revelou, em uma reportagem publicada nesta terça-feira (29), como grupos de usuários do X, antigo Twitter, estão explorando falhas no sistema de monetização da plataforma para lucrar com a divulgação de notícias falsas.

Desde o lançamento do programa de monetização em julho de 2023, os usuários recebiam recompensas baseadas no alcance de suas postagens. Em outubro de 2024, as regras mudaram, passando a remunerar interações feitas por assinantes do X Premium.

Alguns usuários de contas monetizadas criaram um esquema coordenado para impulsionar as postagens uns dos outros, utilizando fóruns e aplicativos de mensagens para planejar a estratégia. Esse impulsionamento também envolve a disseminação de conteúdos falsos, incluindo posts que apoiam candidaturas como as de Donald Trump e Kamala Harris para as eleições de 2024 nos EUA. Embora essas contas não estejam oficialmente ligadas às campanhas, já teriam sido procuradas para divulgações pagas.

As publicações vão de conteúdos verdadeiros a desinformação e acusações sem fundamento, incluindo alegações de fraude eleitoral e acusações sérias contra candidatos, como pedofilia e abuso sexual.

O dono do perfil Freedom Uncut, um participante desse esquema, contou à BBC que fatura milhares de dólares por mês com suas postagens, que ele define como sátiras, afirmando ser apartidário, mas favorável à eleição de Trump. Ele admite que suas postagens, muitas vezes acompanhadas de imagens geradas por IA, são provocativas e “baseadas em alguma versão da realidade”.

Outro exemplo citado é a conta Brow Eyed Susan, que apoia abertamente Kamala Harris e compartilha um volume alto de publicações diariamente.

Atualmente, o X não monitora diretamente o conteúdo monetizado, ao contrário de plataformas como o YouTube. No entanto, posts podem ser desmonetizados se forem corrigidos pelas Notas da Comunidade, o que significa que conteúdos flagrantemente falsos podem ser impedidos de gerar receita. No entanto, essa moderação depende da ação da própria comunidade.

Essa prática de usar as Notas da Comunidade também levanta preocupações. Há temores de que grupos possam usar esse recurso para desmonetizar publicações legítimas de oponentes, prejudicando a integridade já bastante deteriorada da plataforma.

Riscos e Preocupações com Chatbots de IA: como a nova tecnologia está Impactando a saúde mental dos adolescentes

Para os pais que ainda estão se atualizando sobre inteligência artificial generativa, o surgimento dos chatbots companheiros pode ainda ser um mistério.

Em linhas gerais, a tecnologia pode parecer relativamente inofensiva, em comparação com outras ameaças que os adolescentes podem encontrar online, como sextorsão financeira.

Usando plataformas baseadas em IA como Character.AI, Replika, Kindroid e Nomi, os adolescentes criam parceiros de conversa realistas com traços e características únicas ou interagem com companheiros criados por outros usuários. Alguns são até baseados em personagens populares de televisão e cinema, mas ainda assim criam um vínculo intenso e individual com seus criadores.

Os adolescentes utilizam esses chatbots para uma variedade de fins, incluindo interpretar papéis, explorar interesses acadêmicos e criativos e ter trocas românticas ou sexualmente explícitas.

No entanto, os companheiros de IA são projetados para ser cativantes, e é aí que os problemas muitas vezes começam, diz Robbie Torney, gerente de programas da Common Sense Media.

A organização sem fins lucrativos lançou recentemente diretrizes para ajudar os pais a entender como os companheiros de IA funcionam, juntamente com sinais de alerta que indicam que a tecnologia pode ser perigosa para seus filhos.

Torney disse que, embora os pais tenham muitas conversas prioritárias para tratar com seus adolescentes, eles devem considerar falar sobre os companheiros de IA como uma questão “bastante urgente”.

Por que os pais devem se preocupar com os companheiros de IA

Adolescentes particularmente em risco de isolamento podem ser atraídos para um relacionamento com um chatbot de IA que, em última instância, prejudica sua saúde mental e bem-estar – com consequências devastadoras.

É o que Megan Garcia argumenta que aconteceu com seu filho, Sewell Setzer III, em um processo judicial que ela apresentou recentemente contra a Character.AI.

Dentro de um ano de começar a se relacionar com companheiros do Character.AI modelados em personagens de Game of Thrones, incluindo Daenerys Targaryen (“Dany”), a vida de Setzer mudou radicalmente, de acordo com o processo.

Ele se tornou dependente de “Dany”, passando muito tempo conversando com ela todos os dias. Suas interações eram amigáveis e altamente sexuais. O processo de Garcia descreve o relacionamento que Setzer tinha com os companheiros como “abuso sexual”.

Em ocasiões em que Setzer perdeu acesso à plataforma, ele se tornava desanimado. Com o tempo, o jovem atleta de 14 anos se afastou da escola e dos esportes, sofreu privação de sono e foi diagnosticado com distúrbios de humor. Ele morreu por suicídio em fevereiro de 2024.

O processo de Garcia busca responsabilizar a Character.AI pela morte de Setzer, especificamente porque o produto foi projetado para “manipular Sewell – e milhões de outros jovens – para confundir realidade e ficção”, entre outros defeitos perigosos.

Jerry Ruoti, chefe de confiança e segurança da Character.AI, disse ao New York Times em um comunicado: “Queremos reconhecer que esta é uma situação trágica, e nossos corações estão com a família. Levamos a segurança de nossos usuários muito a sério e estamos constantemente buscando maneiras de evoluir nossa plataforma.”

Dado o risco de vida que o uso de companheiros de IA pode representar para alguns adolescentes, as diretrizes da Common Sense Media incluem proibir o acesso para crianças menores de 13 anos, impor limites rigorosos de tempo para adolescentes, evitar o uso em espaços isolados, como o quarto, e estabelecer um acordo com seus filhos para que procurem ajuda para problemas sérios de saúde mental.

Torney afirma que os pais de adolescentes interessados em um companheiro de IA devem ajudar a entender a diferença entre conversar com um chatbot e com uma pessoa real, identificar sinais de que desenvolveram um apego não saudável e elaborar um plano para lidar com essa situação.

Sinais de que um companheiro de IA não é seguro para seu adolescente

A Common Sense Media criou suas diretrizes com a contribuição e assistência de profissionais de saúde mental associados ao Laboratório Brainstorm de Inovação em Saúde Mental de Stanford.

Embora haja pouca pesquisa sobre como os companheiros de IA afetam a saúde mental dos adolescentes, as diretrizes se baseiam em evidências existentes sobre a dependência excessiva de tecnologia.

“Um princípio a ser seguido é que os companheiros de IA não devem substituir conexões humanas reais e significativas na vida de ninguém, e – se isso estiver acontecendo – é vital que os pais percebam e intervenham rapidamente”, disse o Dr. Declan Grabb, primeiro bolsista de IA do Laboratório Brainstorm de Inovação em Saúde Mental de Stanford, ao Mashable em um e-mail.

Os pais devem ser especialmente cautelosos se seus adolescentes apresentarem depressão, ansiedade, desafios sociais ou isolamento. Outros fatores de risco incluem passar por grandes mudanças na vida e ser do sexo masculino, pois os meninos são mais propensos a desenvolver uso problemático da tecnologia.

Sinais de que um adolescente formou um relacionamento não saudável com um companheiro de IA incluem afastamento de atividades e amizades típicas, piora no desempenho escolar, preferir o chatbot à companhia presencial, desenvolver sentimentos românticos por ele e falar exclusivamente com ele sobre os problemas que está enfrentando.

Alguns pais podem notar maior isolamento e outros sinais de piora na saúde mental, mas não perceber que seus filhos têm um companheiro de IA. De fato, uma pesquisa recente da Common Sense Media descobriu que muitos adolescentes já usaram pelo menos uma ferramenta de IA generativa sem que os pais soubessem.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso.”
– Robbie Torney, Common Sense Media

Mesmo que os pais não suspeitem que seus adolescentes estejam conversando com um chatbot de IA, eles devem considerar falar sobre o assunto. Torney recomenda abordar o adolescente com curiosidade e abertura para aprender mais sobre o companheiro de IA, caso ele tenha um. Isso pode incluir observar o adolescente interagir com o companheiro e fazer perguntas sobre o que ele gosta na atividade.

Torney incentiva os pais que notarem qualquer sinal de uso não saudável a agir imediatamente, discutindo a situação com o adolescente e buscando ajuda profissional, conforme necessário.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso”, diz Torney.

Se você está se sentindo suicida ou passando por uma crise de saúde mental, fale com alguém. Você pode entrar em contato com o CVV pelo telefone 188, disponível 24 horas. Caso prefira o chat, visite www.cvv.org.br/chat/. Para serviços internacionais, consulte uma lista de recursos.

“Teoria do Contraste” no TikTok: um filtro alimentando inseguranças e estereótipos

“Você não é feia; só não está usando a maquiagem de acordo com o contraste do seu rosto”. Assim começa um dos mais de 52 mil vídeos no TikTok de mulheres usando o filtro “Qual é o seu contraste?”. A nova tendência entre filtros de beleza explora inseguranças femininas para vender produtos, incentivando usuárias a classificarem seus rostos conforme o contraste entre suas características.

O filtro transforma a imagem para preto e branco, categorizando os rostos em contrastes alto, médio e baixo. O padrão de comparação, no entanto, é baseado em ideais eurocêntricos, limitando as opções de tom de pele a claro, médio e escuro. De acordo com o filtro, quanto mais escuros os traços em relação à pele, maior o contraste. Cada nível de contraste recomenda um estilo específico de maquiagem: baixo contraste pede looks mais sutis, enquanto alto contraste incentiva maquiagens mais ousadas.

Em um vídeo com mais de cinco milhões de visualizações, a criadora do filtro, @alieenor, uma maquiadora francesa, explica que se vê em uma “missão de ajudar as mulheres a se sentirem mais confiantes”. Ela sugere que a “teoria do contraste” é uma ferramenta para se libertar das inseguranças e finalmente se sentir bonita. No entanto, essa lógica acaba confundindo autoestima com aparência e reforçando padrões de beleza eurocêntricos.

Para @alieenor, entender o contraste é essencial para qualquer mulher: “Se você é do alto contraste, precisa adicionar alguma intensidade para equilibrar o rosto. Caso contrário, você vai entender por que está com uma aparência apagada”. Ela diz que a teoria do contraste a ajudou a entender: “Não é que eu não seja bonita; é que essa maquiagem não é para mim”.

O apelo do filtro talvez esteja na ideia de que a beleza pode ser alcançada com “pequenos truques” para compensar inseguranças, o que tem um impacto particularmente perigoso para meninas adolescentes. Em 2021, um relatório do CDC indicou que uma em cada cinco adolescentes se sentia persistentemente triste e desanimada, um aumento de 21% em relação a 2011. Neste contexto, teorias como essa podem fazer parecer que o autocuidado depende da aprovação de padrões de beleza.

Apesar de sua popularidade, a teoria do contraste enfrenta críticas significativas. Criadores como Monika Ravinchandran questionam sua validade, especialmente para pessoas com tons de pele mais escuros. Em um vídeo, Ravinchandran prova que a teoria não se aplica bem a pele escura e argumenta que classificar tons mais escuros como de “baixo contraste” desconsidera estilos de maquiagem típicos para mulheres negras e indianas.

No longo histórico de tendências de beleza no TikTok, a teoria do contraste é apenas mais uma na linha de filtros como análise de cores e filtros de proporção facial perfeita. Talvez seja hora de algo como a neutralidade corporal ganhar destaque, embora seja difícil imaginar que um filtro mais generoso com as individualidades possa prosperar, já que ele não estaria promovendo vendas de produtos ou comissões para influenciadores.

Sair da versão mobile