O Facebook anunciou nesta segunda-feira, 27, mudanças nas ferramentas de prevenção ao suicídio. Em comunicado, Guy Rosen, vice-presidente de Gerenciamento de Produto, afirma que uma das melhorias será na equipe de revisores de conteúdo. A rede social vai dedicar mais especialistas para analisar denúncias de conteúdos de suicídio ou automutilação.
Para identificar sinais de alerta em vídeos - gravados ou ao vivo -, a rede social vai começar a aplicar também inteligência artificial que antes ficava restrita aos usuários dos Estados Unidos. No comunicado, Rosen explica o Facebook que reconhecimento de padrões para ajudar a identificar publicações e transmissões ao vivo como possíveis de expressar pensamentos suicidas.
“Usamos sinais como o texto usado em posts e comentários (por exemplo, comentários como ‘você está bem?’ ou ‘posso ajudar?’ podem ser sinais de que uma pessoa está enfrentando dificuldade emocional)”, afirma. O comunicado ainda ressalta que essa tecnologia já ajudou a rede a identificar vídeos que poderiam não ter sido reportados por usuários.
Mesmo assim, o papel do internauta continua importante na identificação de conteúdos que possam indicar pensamentos suicidas ou de automutilação. “Você pode entrar em contato com ela diretamente ou denunciar o post para nós”, encoraja Rosen. “Temos equipes trabalhando em todo o mundo, 24 horas por dia, 7 dias por semana, que analisam as denúncias e dão prioridade aos relatos mais sérios.”
A rede oferece sugestões de mensagens e abordagens que podem ser usadas em situações delicadas. Denúncias mais sérias, que possam envolver risco à vida, recebem ação prioritária, afirma Rosen “Em situações assim, autoridades locais são notificadas até duas vezes mais rápido do que em outras denúncias”, garante.
Em maio deste ano, o Instagram lançou uma campanha de conscientização sobre saúde mental. Uma pesquisa lançada naquele mês mostrou o impacto das redes sociais para os jovens.
Os comentários são exclusivos para assinantes do Estadão.