O TikTok está advertindo seus usuários sobre um vídeo que exibe um suicídio

🚨 Alerta de gatilho: suicídio, violência. 🚨

O aplicativo está tentando evitar que o vídeo viralize, removendo clipes de sua plataforma e banindo usuários que o compartilhem repetidas vezes.

Drew Angerer / Getty Images

Publicidade

O TikTok está advertindo seus usuários para terem cuidado com vídeos de um homem se suicidando que estão sendo espalhados na plataforma de rede social.

O vídeo está circulando no aplicativo desde a noite de domingo, pelo menos, afirmou Hilary McQuaide, porta-voz do TikTok, ao BuzzFeed News.

"Nossos sistemas detectaram e identificaram automaticamente que esses clipes estavam violando nossas políticas contra conteúdo que exibe, enaltece, glorifica ou promove suicídio", afirmou ela.

"Estamos banindo contas que tentam fazer o upload dos clipes repetidas vezes e agradecemos aos membros da nossa comunidade que denunciaram o conteúdo e alertaram outras pessoas para que não assistissem, engajassem ou compartilhassem tais vídeos em nenhuma plataforma em respeito à pessoa e sua família."

O vídeo é de uma Live no Facebook do suicídio de um homem no Mississippi, gravado na semana passada.

Trolls também estão inserindo trechos do vídeo em outros clipes aparentemente inofensivos, em uma tentativa de fazer com que outras pessoas assistam ao suicídio.

Alguns usuários do TikTok filmaram vídeos alertando outras pessoas sobre isso, mostrando uma captura de tela (um homem barbado sentado a uma mesa) para que elas saibam com qual tipo de conteúdo devem ter cuidado.

Ao contrário de outros aplicativos, onde os usuários devem se inscrever ou serem amigos de outros usuários para verem seu conteúdo, os usuários do TikTok frequentemente encontram vídeos de pessoas que não seguem em suas páginas "Para Você".

O empenho do TikTok na remoção do vídeo foi inicialmente noticiado no domingo pelo site The Verge.

Esse não foi o primeiro suicídio exibido em redes sociais. Em 2017, o BuzzFeed News dos EUA encontrou pelo menos 45 casos de violência – suicídios, tiroteios, assassinatos, tortura e abuso infantil – que haviam sido transmitidos via Live do Facebook desde o lançamento do recurso, em dezembro de 2015.

Atualmente, o Facebook utiliza uma inteligência artificial para identificar publicações de usuários indicando ideação suicida ou automutilação.

Anteriormente, sites como o Reddit também foram criticados por não agir com celeridade suficiente na remoção de vídeos de suicídio ou outros atos violentos.

No Brasil, você pode entrar em contato com o Centro de Valorização da Vida através do número 188. É possível acessar www.cvv.org.br para chats ou ligações de vídeo, e informações para ligações gratuitas. Em caso de suspeita de conhecidos ou familiares, busque mais informações em https://saude.gov.br/saude-de-a-z/suicidio.

Este post foi traduzido do inglês.

Publicidade