Con inteligencia artificial y consejerías en Messenger

Facebook pondrá en marcha herramientas para ayudar a prevenir el suicidio

La red social presentó su plan de acción en Facebook Safety, el que incluirá un sistema mejorado de inteligencia artificial (IA), que alertará sobre señales de posibles intentos de suicidio, y ofrecerá ayuda a los usuarios en riesgo mediante un chat de apoyo a través de Messenger.

facebook-prevencion suicidio

Imagen, Facebook Safety


La ubicua red social de Zuckerberg anunció que usará una herramienta de inteligencia artificial para ayudar a prevenir el suicidio, que es una de las mayores causas de muerte entre los usuarios jóvenes.

El día miércoles, en un video y un comunicado, Facebook presentó su plan de acción, el que incluirá un chat de apoyo a través de Messenger y un sistema mejorado de inteligencia artificial (IA) que alertará sobre señales que indiquen posibles intentos de suicidio.

Los algoritmos estarán acondicionados para buscar palabras clave y patrones de comportamiento entre los datos recolectados de los casi dos millones de usuarios activos de la red social. Estas claves se basan en comentarios que ya se han identificado como causa de preocupación. La herramienta también rastreará comentarios de amigos que podrían indicar que alguien está en problemas o necesita ayuda.

La red contará con la asesoría de organizaciones como ‘Crisis Next Line’, ‘National Eating Disorder Association’ y ‘National Suicide Prevention Lifeline’, las que ofrecerán harán un trabajo de consejería en tiempo real con los usuarios, a través de Messenger.

La decisión surge en respuesta al gran número de historias de suicidios adolescentes expuestas entre los usuarios de Facebook. En enero, una niña de 14 años del estado de Florida publicó su suicidio en vivo a través de Facebook Live. El mismo mes, la red social estuvo en medio de una polémica por su intento de eliminar copias de un video del suicidio de otra niña, de solo 12 años, que había sido publicado en otro medio y se había viralizado hacia esta red.

El comunicado que Facebook emitió esta semana no especifica cómo enfrentará este problema cuando de trate de los videos en vivo, aparte de los medios ya existentes para identificar y denunciar contenidos.

Tal vez las críticas a las nuevas medidas apunten a la invasión de la privacidad, pero tampoco hay claridad sobre qué habilidad tiene la IA para detectar comentarios que no hablan seriamente de suicidio, sino que tienen sentido figurado, o exhiben sarcasmo o humor negro.

Joe Franklin, profesor asistente en el laboratorio de Psicopatología y Tecnología de la Universidad de Florida, dijo al medio MIT Technology Review, que hay poca evidencia científica de que este tipo de herramientas sean efectivas en detectar el comportamiento suicida o los problemas de salud mental. «No creo que sea algo malo y pienso que deberíamos estudiarlo», dice el experto, «pero inmediatamente me surgen cuestionamientos. No daría por sentado que sea efectivo».

Sin embargo la motivación es valiosa. El suicidio es la segunda causa más importante de muerte entre las personas de 15 a 29 años en Estados Unidos. En otro país, Reino Unido, la principal causa de muerte entre los hombres de 20 a 49 años es el suicidio. Aunque la IA pueda no ser tan efectiva como se cree, pero la red social es una enorme fuente para monitorear y detectar a estos grupos demográficos.

Fuente, IFLScience

El Ciudadano

Síguenos y suscríbete a nuestras publicaciones

Comparte ✌️

Comenta 💬