Na recente disputa entre plataformas de mídia social pelo domínio do conteúdo de vídeo curto, o Instagram avançou mais um passo com o lançamento do “Reels”. Este serviço visava capacitar os usuários a explorar uma variedade de tópicos de interesse, como esportes, cinema ou humor.
No entanto, um recente teste conduzido pelo The Wall Street Journal levantou preocupações, revelando uma possível falha no algoritmo do Reels. A investigação realizada pelo renomado jornal americano questionou a segurança dos usuários ativos do Instagram, especialmente os mais jovens.
O teste envolveu a criação de contas fictícias que passaram a seguir jovens influenciadores, resultando em uma exposição perturbadora a conteúdos explicitamente sexualizados.
Preocupação crescente com o algoritmo do Instagram
De maneira alarmante, o Reels não se limitou a exibir conteúdo inadequado, mas também estabeleceu conexões prejudiciais entre jovens usuários e adultos com intenções desconhecidas.
A presença notável de adultos entre os seguidores de perfis de jovens intensificou a preocupação. Em meio ao caos virtual, o algoritmo persistiu em sugerir material ofensivo e perturbador aos usuários validados.
Quem é responsável por esse caos online?
A empresa proprietária do Instagram, Meta Platforms, foi rápida em se defender, afirmando que a experiência produzida pelo teste era artificial e não representava o que bilhões de seus usuários veem diariamente.
Ainda, a Meta se absteve de explicar por que seus algoritmos geravam fluxos separados de vídeos retratando crianças, atividades sexuais e anúncios publicitários.
Apesar disso, a empresa tentou tranquilizar o público, destacando que em outubro lançou novas ferramentas de segurança de marca, permitindo um maior controle dos anunciantes sobre onde os anúncios são veiculados. Entretanto, empresas como Disney e Walmart, que tiveram seus anúncios posicionados junto a conteúdos inadequados, pressionam por explicações.
A Meta consegue remediar essa situação?
Segundo o The Wall Street Journal, a Meta foi notificada sobre os resultados dos testes em agosto. Infelizmente, a plataforma continuou a sugerir vídeos inapropriados mesmo depois disso. Na segunda quinzena de novembro, a Canadian Centre for Child Protection relatou que o Instagram ainda estava recomendando vídeos que retratavam “adultos e crianças fazendo poses sexuais”.
Veja também:
Dona do TikTok anuncia demissão de funcionários e encerra atividades
Esses relatos levantam uma questão crucial: como o Instagram está planejando abordar essa falha e garantir a segurança dos seus usuários?
Imagem: sdx15 / shutterstock.com