Facebook está implementando un esfuerzo de prevención de suicidios basado en la inteligencia artificial

Para prevenir los suicidios Facebook está ampliando sus esfuerzos automatizados para prevenir el suicidio, la compañía notificó el lunes que ahora está usando inteligencia artificial (AI) para identificar publicaciones, videos y transmisiones de Facebook Live que contienen pensamientos suicidas. También usará la tecnología para priorizar el orden en que su equipo revisa las publicaciones.

Señalización automática en mensajes de texto y video

En marzo, Facebook (FB, Tech30) comenzó a realizar una prueba limitada de esfuerzos de prevención de suicidios basados en la inteligencia artificial (AI), en mensajes solo de texto en los EE.UU. Su último esfuerzo traerá herramientas de señalización automáticas en mensajes de texto y video a nivel mundial, excepto en la UE donde las restricciones de privacidad de datos son diferentes a otras partes del mundo.

En una publicación de blog, Facebook detalló cómo la inteligencia artificial (AI), busca patrones en publicaciones que pueden contener referencias a suicidio o autolesiones, además de buscar palabras y frases en las publicaciones, escaneará los comentarios, según Facebook, los comentarios como “¿Estás bien?” y “¿Puedo ayudar?” potencialmente puede ser un indicador de pensamientos suicidas.

Si el equipo revisa una publicación y determina que  la persona es un suicida en potencia y es necesaria una intervención inmediata, Facebook puede trabajar con los primeros en responder para enviar ayuda. La red social también puede llegar a los usuarios a través de Facebook Messenger con recursos, como enlaces a la Línea de Texto de Crisis, la Asociación Nacional de Trastornos de la Alimentación y la Línea Nacional de Prevención de Suicidio.

Críticas por su función de Facebook Live

Facebook utilizará la inteligencia artificial (AI) para asegurarse de que su equipo revise las publicaciones de los que están más en apuros primero, priorizando sus necesidades,  la medida es parte de un esfuerzo para apoyar aún más a sus usuarios en riesgo. Facebook se ha enfrentado a críticas por su función de Facebook Live, donde algunos usuarios tienen eventos gráficos transmitidos en vivo, incluido el suicidio. La prueba del esfuerzo automático que comenzó a principios de este año parece tener éxito hasta ahora, según Guy Rosen, vicepresidente de gestión de productos.

“En el transcurso del último mes, hemos trabajado con personal de primera respuesta en más de 100 controles de bienestar basados en informes que recibimos a través de nuestros esfuerzos de detección proactiva”, dijo Rosen. Ese número no incluye informes de personas en la comunidad de Facebook, los usuarios de Facebook aún pueden informar posibles autolesiones a Facebook directamente, esos mensajes pasan por el mismo análisis humano que aquellos señalados por las herramientas de la inteligencia artificial (AI).

La palabra “adicto” tiene un montón de estigma asociado

“Nos engañaron hace años con la idea de que los adictos eran personas que vivían debajo de un puente”, dijo Jamison Monroe Jr., fundador del centro de recuperación de adicciones para adolescentes Newport Academy. Pero en los últimos años, el abuso de opiáceos ha alcanzado proporciones epidémicas, y los blancos han tenido el mayor aumento en la adicción a la heroína.

Monroe, quien es un adicto en recuperación, dijo que está ayudando a cambiar los estereotipos sobre cómo se ve un adicto. “Nos estamos dando cuenta de que la adicción no discrimina en función de los datos demográficos, los niveles de ingresos o el código postal”.De hecho, hay 22.7 millones de estadounidenses que necesitan tratamiento por problemas relacionados con las drogas y el alcohol, según el Instituto Nacional sobre el Abuso de Drogas.

One Comment

Añadir un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *