Facebook leva a mais países inteligência artificial contra suicídio

Abordagem usa tecnologia de reconhecimento de padrões para identificar posts e transmissões ao vivo.

email facebook googleplus pinterest twitter whatsapp

Por Melissa Cruz Cossetti, da redação

Nesta segunda-feira (27), o Facebook anunciou três novidades para ajudar pessoas que expressam pensamentos suicidas. São conhecidos inúmeros casos de mortes em vídeos ao vivo, recados pré-suicídio e cartas de despedida publicados na rede social. Para prevenir e tentar evitar novas vítimas, a plataforma pretende usar tecnologia para detectar indícios em posts ou lives que possam ter sinais de autores suicidas, e responder denúncias de suicídio e automutilação mais rapidamente no site.

  1. Usar tecnologia para detectar sinais em posts ou transmissões ao vivo que possam ter pensamentos suicidas, e para ajudar a responder a denúncias de conteúdos de suicídio ou automutilação mais rapidamente;
  2. Melhorar a forma como identificamos as melhores opções de ajuda;
  3. Dedicar mais revisores do time de especialistas para analisar denúncias de conteúdos de suicídio ou automutilação;

Facebook  (Foto: Melissa Cruz Cossetti/TechTudo)) Facebook  (Foto: Melissa Cruz Cossetti/TechTudo))

Facebook (Foto: Melissa Cruz Cossetti/TechTudo))

De acordo com a rede social, durante o último mês, o Facebook trabalhou com serviços de emergência em mais de 100 ocasiões em que a tecnologia (no caso, a inteligência artificial) ajudou a identificar sinais de comportamento suicida ou de automutilação. Isso muda a maneira de operar da rede social que, até então, demanda de denúcias de outros usuários para entrar em ação em casos do tipo.

"Isso se soma às notificações que recebemos de pessoas na nossa comunidade", explica Guy Rosen, vice-presidente de gerenciamento de produto do Facebook.

Mais tecnologia também vai ser aplicada para acelerar respostas às denúncias sérias que envolvam risco à vida e casos que merecem uma ação prioritária.

"Autoridades locais são notificadas até duas vezes mais rápido do que em outras denúncias. Estamos comprometidos em continuar investindo em tecnologias para identificar padrões que possam indicar risco à integridade física das pessoas", diz.

Tecnologia que reconhece padrões

A inteligência artificial começa agora a ser usada fora dos Estados Unidos para ajudar a identificar situações em que alguém possa estar expressando pensamentos que levem ao suicídio, inclusive no Facebook Live. A abordagem usa tecnologia de reconhecimento de padrões para ajudar a identificar posts e transmissões ao vivo como possíveis formas de expressar pensamentos suicidas. O site segue tentando aumentar a precisão para evitar "falsos positivos".

Que tipo de sinais são usados?

De acordo com o Facebook, são usados sinais como o texto escrito em posts e comentários. Por exemplo, se um post gera muitas mensagens como "você está bem?" ou "posso ajudar?" podem ser sinais de que uma pessoa está enfrentando dificuldade emocional. Em algumas ocasiões, a tecnologia identificou vídeos que poderiam não ter sido reportados/denunciados pelos outros usuários da rede.

Parcerias com instituições de saúde mental

Atualmente, no Facebook, quando alguém publica algo preocupante, você pode entrar em contato com a pessoa diretamente ou denunciar o post. O site afirma que tem equipes trabalhando, em todo o mundo, 24 horas por dia, sete dias por semana, analisando denúncias e dando prioridade aos relatos mais sérios.

"Nós fornecemos materiais de apoio, como a opção de contatar um amigo e até mesmo sugestões de mensagens que podem ser enviadas em situações delicadas. Também recomendamos entrar em contato com uma linha de ajuda — no Brasil, temos uma parceria com o Centro de Valorização da Vida (CVV)", detalhou Rosen.

A rede social é um lugar em que amigos e familiares já estão conectados, o que faz a plataforma capaz de conectar pessoas em situação de dificuldade emocional com outras que podem oferecer apoio. No Brasil, além do CVV, existe uma parceria com a SaferNet — que lançou recentemente uma cartilha contra o revenger porn (pornografia de vingança) "Sem meu consentimento, não".

O Facebook afirma que tem trabalhado em ferramentas de prevenção ao suicídio por mais de 10 anos e sua abordagem foi desenvolvida em colaboração com organizações de saúde mental como Save.org, National Suicide Prevention Lifeline e Forefront Suicide Prevention, com a contribuição de pessoas que tiveram experiências em pensar a respeito ou tentar suicídio. Todas estão disponíveis globalmente — com a ajuda de mais de 80 parceiros locais — e em qualquer idioma.

Qual recurso o Facebook poderia dispensar? Comente no Fórum do TechTudo.

MAIS DO TechTudo