Redes Sociais Permitem Conteúdos Nocivos em Busca de Engajamento
Denunciantes revelam que plataformas como Meta e TikTok têm priorizado o crescimento do engajamento em detrimento da segurança dos usuários, permitindo a circulação de conteúdo potencialmente prejudicial, conforme reportado por uma investigação da BBC.
Crescimento do TikTok e Reação do Mercado
Após o crescimento explosivo do TikTok, múltiplas fontes internas de empresas como Meta expuseram um ambiente corporativo que, em busca de recuperar participação no mercado, optou por permitir mais conteúdo "limítrofe". Este tipo de conteúdo inclui publicações que, embora não violem explicitamente as regras, são consideradas prejudiciais, como discursos misóginos e teorias da conspiração. Um engenheiro da Meta relatou que não houve incentivos adequados para a segurança dos usuários, enfatizando que as decisões priorizavam os interesses financeiros da companhia.
Conteúdo Nocivo em Alta
Funcionários da Meta e TikTok comentaram à BBC que, em meio à competição acirrada, a segurança dos usuários foi colocada em segundo plano. Um funcionário da Meta afirmou que a prioridade dada a conteúdo controverso foi motivada pela queda no valor das ações da empresa. Do outro lado, um ex-engenheiro do TikTok revelou que as equipes de segurança eram pressionadas a focar em publicações políticas ao invés de conteúdos que potencialmente prejudicavam adolescentes.
Dados Alarmantes sobre Segurança
Investigações internas indicaram que o Instagram Reels, plataforma criada pela Meta para competir com o TikTok, apresentou taxas significativamente elevadas de bullying, discurso de ódio e incitação à violência logo após seu lançamento. Isso se deve à falta de proteções adequadas, de acordo com pesquisas que apontam um padrão preocupante no uso do algoritmo.
Depoimentos de Usuários
Com o aumento do conteúdo nocivo, até mesmo adolescentes relataram experiências de radicalização por conta das recomendações do algoritmo. Um jovem declarou ter se sentido energizado, mas não de forma positiva, por conteúdos que alimentavam sua ira e desprezo pelos outros. Especialistas em segurança afirmam que a normalização de discursos violentos nas redes sociais está impactando a percepção da violência.
Prioridade em Relações Políticas
As investigações revelaram que a equipe de confiança e segurança do TikTok lidou com casos de maneira desigual. Casos envolvendo figuras políticas recebiam atenção prioritária em detrimento de situações mais graves envolvendo crianças e jovens. Um membro da equipe expressou preocupações sobre a segurança das crianças, alegando que as decisões eram tomadas não pela proteção dos usuários, mas para evitar possíveis regulações governamentais.
Reações das Empresas
Em resposta às alegações, a Meta negou que tenha promovido ativamente conteúdo nocivo por motivos financeiros, enquanto o TikTok classificou as acusações como infundadas, argumentando que investe em tecnologias para prevenir a visualização de conteúdos danosos. As empresas continuam a ser questionadas sobre suas reais intenções e responsabilidades no que tange à moderação de conteúdo.
A investigação levanta sérias questões sobre a maneira como as redes sociais influenciam o comportamento do usuário e a necessidade urgente de um equilíbrio entre engajamento e segurança.
Com informações de: BBC
