Sabía usted que ‘ibuprofeno’ es una palabra clave que puede alertar con mayor eficacia de un posible intento de suicidio de quien la escribe que ‘sobredosis’ o ‘morir’? Esta es la una de las sorprendentes conclusiones a las que llegaron los expertos de Crisis Text Line, un servicio gratuito de apoyo por SMS a personas con problemas psicológicos en EE UU, que decidieron usar la inteligencia artificial para detectar patrones de conductas suicidas en los millones de mensajes recibidos en su servicio y poder así darles prioridad.

El nuevo algoritmo de Crisis Text Line procesó los 22 millones de mensajes recibidos y descubrió otras tantas palabras -o combinaciones de palabras- que alertan del riesgo de conducta suicida mucho más que la propia palabra ‘suicidio’. Incluyendo los famosos Emoji: los mensajes al servicio de Crisis Text Line que contenían la famosa carita triste que llora, por ejemplo, multiplicaron por 11 la necesidad de llamar al servicio de urgencias.

La inteligencia artificial ha ayudado a Crisis Text Line a atender más rápido a posibles suicidas frente a personas con problemas menos graves. Antes de que el nuevo algoritmo estuviera en marcha, sus supervisores respondían a estos casos en menos de dos minutos de media y ahora lo hacen en 39 segundos. Una experiencia, de vida o muerte en muchos casos, que ahora Facebook quiere trasladar a un nivel masivo y global. El fundador y presidente de la compañía, Mark Zuckerberg, anunció esta misma semana que han escalado sus esfuerzos para la detección temprana y prevención de posibles suicidios entre sus más de 2.000 millones de usuarios, mediante el uso avanzado de la inteligencia artificial y de un nuevo equipo de colaboradores de respuesta inmediata (como Save.org) a nivel mundial.

Facebook ya disponía desde hace casi una década de un sistema ‘manual’ para la detección de conductas potencialmente suicidas a partir de las alertas enviadas a la red por ‘amigos’ ante mensajes, fotos o videos que les parecían preocupantes. Pero ahora, los billones de mensajes compartidos en la macro-red social, especialmente alrededor de estos casos, han servido para que su algoritmo detecte automáticamente los patrones de comunicación de potenciales suicidas (o incluso las respuestas tipo ‘¿estás bien?’ de sus amigos) y actúe directa e inmediatamente.

Un equipo incrementado de supervisores en Facebook se encargará de contactar con colaboradores locales en el país del posible suicida, para actuar en el momento. "Se trata de recortar minutos en cada paso del proceso, especialmente en el caso de Facebook Live (la herramienta de video en directo de la red social)", explica el director de Desarrollo Guy Rosen. En el último mes de pruebas, Facebook ha iniciado más de 100 ‘comprobaciones de bienestar’ con colaboradores locales que visitaban a los usuarios afectados, y "ha habido casos en los que han llegado mientras la persona estaba todavía transmitiendo su video (suicida)".

El sistema no se pondrá en marcha en la UE ya que requiere el escaneado de todos los mensajes

El plan de Facebook responde no solo a una creciente preocupación en EEUU por el incremento de la tasa de suicidios en el país, especialmente entre los más jóvenes (algo que también ocurre en España desde el inicio de la crisis); sino también y muy especialmente a los últimos y extraordinariamente polémicos casos de suicidio en directo en Facebook Live, como el de Katelyn Nicole Davis, una niña de tan solo 12 años, el pasado enero.  Una iniciativa loable que, sin embargo, trae aparejada otra buena dosis de polémica, ya que presupone el escaneado masivo y proactivo de Facebook de todos nuestros mensajes en busca de ‘patrones suicidas’ o, en el futuro y según las palabras de Mark Zuckerberg en su mismo anuncio, probablemente también de "abuso y odio". Por el momento, la red social no podrá poner en marcha ni el sistema de prevención de suicidios ni otros algoritmos preventivos futuros en la Unión Europea, la que la normativa comunitaria (GDPR) impide el uso de datos de sus ciudadanos sin su consentimiento expreso.