top of page

DavidTriviño.

ESCRITOR

Foto del escritorDavid Triviño

Algoritmos para el suicidio

Aunque el suicidio tiene una gran repercusión en nuestra sociedad (la OMS informa de que se registran 800 000 al año, uno cada cuarenta segundos), ha permanecido en una especie de refugio informativo durante mucho tiempo. El Libro de estilo de El País indicaba en 2003 que «los suicidios deberán publicarse solamente cuando se trate de personas de relevancia o supongan un hecho social de interés general». Aunque no cabe duda de que se trata de un tipo de información extremadamente delicada e íntima, el efecto contagio o «efecto Werther» (por la obra de Goethe) que se esgrimía para no hablar de ello parece no ser tal. En Japón, uno de los países con índices de suicidio elevados, hablar abiertamente del tema ha contribuido, al contrario de lo que se pensaba, a que desciendan los casos. A este tratamiento de la información lo han bautizado con el nombre de «efecto Papageno» (por el libreto de Schikaneder para la ópera alemana La flauta mágica, de Mozart). Lo que se persigue es que los potenciales suicidas encuentren vías alternativas a sus planes.

Aokigahara. Popularmente, el bosque de los suicidios. Japón.

Pedro Antunes, editor en jefe de la división brasileña de la revista Rolling Stone, se dio cuenta de que en su país estaba aumentando el número de personas que se suicidaban, pero no había labores de detección sistemática con las que interrumpir el proceso que desencadenan los distintos estados anímicos que atraviesa todo suicida en potencia: «Quitarse la vida es un tabú y nosotros en la revista quisimos sacarlo de ahí». Es un gesto valiente. Muchos medios habían optado hasta ahora por la vía fácil: para no caer en un tratamiento de la información morboso, consideraban que lo mejor era evitar hablar del tema. Si bien la sensibilidad ayuda ante un problema social que es el resultado de una concatenación de factores, el silencio no solo no sirve, sino que acaba por volverse cómplice, como demuestra el caso de Guyana. La situación está cambiando y entre las muchas pruebas que lo demuestran no solo está su mayor presencia en la información que ofrecen los medios de comunicación, sino también en los ambiciosos proyectos de especialistas en lingüística computacional.

En la era de la inteligencia artificial, distintas corporaciones y grupos de investigación intentan reducir una de las causas de muerte más importantes en el mundo mediante algoritmos diseñados para detectar indicios y activar mecanismos de prevención. Desde los intentos del equipo de Rolling Stone en Brasil hasta Facebook en Estados Unidos, los protocolos para analizar los testimonios en las redes de posibles víctimas han ido adquiriendo características más sofisticadas sin que los usuarios hayamos sido ni siquiera conscientes de ello. De hecho, tanto la revista como la red social cuentan con sus propios algoritmos para rastrear el lenguaje de sus lectores en busca de pistas. Las herramientas que emplea la inteligencia artificial parecen presentarse ahora como una solución eficaz: pueden analizar millones de datos de un número incontable de usuarios, establecer patrones a partir de ellos y mantener la subjetividad relativamente al margen en un proceso inicial de cribado. Esto abre, sin embargo, numerosos interrogantes, que van desde la utilidad real de estos sistemas hasta la invasión de la privacidad que supone que una corporación esté escaneando las interacciones de todos sus usuarios.

Gramática depresiva

¿Cómo mide una máquina el estado de ánimo más allá de cierto empleo de un léxico negativo que podría quedarse en estados puntuales de tristeza? Son varias las empresas que han desarrollado algoritmos con los que rastrear textos en redes sociales como Twitter o Facebook. En este tipo de foros la gente se expresa con mayor libertad, amparada por el relativo anonimato que ofrecen. El suicidio, en efecto, no está clasificado como enfermedad mental, pero los profesionales que lo estudian coinciden en que, en la mayor parte de los casos, guarda una estrecha relación con algún trastorno, diagnosticado o no, o con una combinación de varios.

En 2004, tres especialistas del McGill Group for Suicide Studies, un grupo del centro de investigación del área de psiquiatría del Hospital Douglas, que forma parte de la universidad canadiense McGill, en Montreal, analizaron 3275 casos de suicidio. Arsenault-Lapierre, Kim y Turecki hallaron que el 87,3 por ciento de los suicidas ya había sido diagnosticado de una enfermedad mental. El estudio buscaba identificar patrones geográficos y de género para detectar indicios que les ayudaran a analizar las distintas variables que intervienen en la planificación de un suicidio. Encontraron, por ejemplo, que el trastorno bipolar era «especialmente preocupante» entre hombres, que mostraban un «riesgo absoluto de suicidio» con un 7,8 por ciento más alto que en el resto de las enfermedades; los pacientes con bipolaridad tenían de veinte a treinta veces más riesgo de suicidio que el resto de la población. Concluyeron, además, que los hombres habían sufrido en menor proporción desórdenes afectivos en comparación con las mujeres, en quienes, sin embargo, la esquizofrenia adelantaba ligeramente al trastorno bipolar. Todo ello conlleva diferencias considerables entre pacientes según su género y, por tanto, implican distintas soluciones, pero, sobre todo, arrojan la necesidad de considerar un amplio abanico de indicios a la hora de identificar casos de manera individualizada.

En Brasil, Bzsys, la empresa contratada por Rolling Stone para su proyecto, determinó que las personas que sufren de depresión emplean de manera recurrente un número de palabras y frases que desvelan su estado y se convierten en una especie de petición de auxilio. A esta morfosintaxis la bautizó en su campaña con el nombre de «gramática de la depresión».


Tres modelos: Virginia Woolf como caso de estudio

Nicole Kidman como Virginia Woolf en The Hours, 2002. Fotografía: Cordon Press.

En 2018 comenzaron a publicarse algunos de los análisis más significativos mediante herramientas informatizadas a partir de los textos de la autora inglesa Virginia Woolf (1882-1941), que se suicidó en el río Ouse con los bolsillos cargados de piedras antes de cumplir los sesenta años. Woolf vivió con una salud mental precaria desde su temprana adolescencia hasta el fin de sus días. Como dejan ver sus escritos, desde sus obras literarias hasta las anotaciones y entradas en sus diarios, la escritora alternaba periodos de esperanza con fases de profunda angustia y ansiedad.

Aunque en los últimos años ha habido varios intentos de categorizar los textos de Woolf mediante análisis semánticos con los que determinar ciertos patrones que confirmaran las tendencias suicidas de la escritora, la introducción de algoritmos clasificadores textuales del comportamiento suicida ha supuesto un avance considerable. Un grupo de investigadores liderados por De Ávila Berni, Rabelo-da-Ponte, Librenza-Garcia, V. Boeira y Kauer-Sant’Anna analizó la producción literaria personal de Woolf dividiendo textos de la autora en dos grupos. El equipo publicó en la prestigiosa revista académica PLOS ONE los resultados de un algoritmo de clasificación textual mediante el que se compararon 46 entradas en los diarios que Woolf escribió dos meses antes de su muerte con 54 fragmentos de otras obras seleccionados aleatoriamente y de distintos momentos de su vida. Usaron para ello un clasificador bayesiano ingenuo; a este modelo supervisado de aprendizaje automático se le llama así porque se basa fundamentalmente en el teorema de Bayes y se asume que hay independencia entre las variables predictoras. Aunque a simple vista el nombre engañe y pudiera parecer un método poco fiable, los resultados tienden a ser buenos. En el estudio sobre los escritos de Woolf, el algoritmo fue preciso a la hora de clasificar qué textos de entre las cien muestras se habían escrito dos meses antes del suicidio de la escritora.

Siguiendo una premisa similar y con pocos meses de diferencia, Androutsopoulou, Rozou y Vakondiou publicaron su estudio «Voices of Hope and Despair: A Narrative-Dialogical Inquiry into the Diaries, Letters, and Suicide Notes of Virginia Woolf». En este caso, la investigación se centró en esclarecer la polifonía de voces en las entradas de los diarios durante los dos meses previos al suicidio de la autora de Una habitación propia. Como el grupo de investigadores anterior, dividieron los textos en dos grupos de voces, los de la esperanza (hope) y los de la desesperación (despair). Con la investigación, pusieron de manifiesto que algunos pacientes luchan entre dos voces a lo largo de todo el proceso de su enfermedad. La carta de suicidio que Woolf le dejó a su marido apuntaba ya en esa dirección:


Querido:

Tengo la certeza de que voy a enloquecer de nuevo. Siento que no podemos pasar otra vez por esos tiempos horribles. Y esta vez no me recuperaré. Comienzo a oír voces y no puedo concentrarme. Así que voy a hacer lo que parece ser lo mejor.


El examen que muestra este artículo no es solo útil para mejorar las tasas de prevención, sino para los tratamientos de aquellos que sobreviven al suicidio. Los datos que arrojan las estadísticas son, de nuevo, duros y crueles: se han contabilizado veinte supervivientes por cada acto que llega a su fin.

«Identifying Suicide Notes Using Forensic Linguistics and Machine Learning» ahonda en los dos factores principales de los experimentos anteriores. Lee y Joh repitieron el experimento de mezclar textos de Woolf de distintos momentos de su vida, a los que aplicaron un método de minería de datos denominada «máquina de soporte vectorial» o Support Vector Machine (SVM). Se trata de un conjunto de algoritmos que representa un conjunto de puntos en el espacio y los divide en dos categorías para predecir si un nuevo punto debe colocarse en una u otra. Los investigadores utilizaron textos literarios de Woolf (entre ellos, La habitación de Jacob) y sus notas de suicidio a su hermana, Vanessa Bell, y a su marido, Leonard Woolf.


Un poco de historia

En realidad, el análisis de los testimonios escritos como las cartas de suicidio cuenta ya con un recorrido considerable en el campo de la lingüística, pues forman parte del corpus de documentos que pueden requerirse como pruebas ante un juez y para los que es necesario contar con una opinión experta, complementaria a los informes periciales médicos o incluso caligráficos. Antes del empleo ordinario de algoritmos con los que manejar grandes cantidades de datos, la disciplina de la lingüística forense ya se ocupaba de detectar patrones textuales que pudieran resolver una amplia gama de casos: desde la falsificación documental hasta la detección de la autoría. En 1968, el caso de Timothy John Evans, ejecutado tras ser declarado culpable de los homicidios de su esposa e hija, que no cometió, llevó al lingüista sueco Jan Svartvik a demostrar que los cuatro fragmentos textuales examinados contenían discrepancias considerables y no procedían de un mismo autor.

Edwin Shneidman, el padre de la suicidología moderna.

Una década antes, en 1957, Edwin Shneidman también utilizó la lingüística para desenterrar algunas verdades: recopiló 66 notas de suicidio; 33 eran auténticas, 33 falsas. Esta fusión de los procedimientos legales y lingüísticos ha ido conformando el avance de una disciplina que ha ayudado a dilucidar importantes casos. En su tesis de 2011, Shapero analizó 286 notas circunscritas al área de Birmingham (Inglaterra). Al ser un género de textos al que Swales bautizó en 2007 como «ocluido», es decir, fuera del alcance de la mayoría de la población, tenían características propias. En 2012, Chaski categorizó varios tipos de enunciados, que iban desde el perdón y el amor hasta la rabia, la queja y el shock, para el manual que Oxford publicó sobre lingüística forense. Con el avance de la tecnología, el ámbito jurilingüístico no hará sino crecer, pues al tiempo que puede ampliar el campo de sus investigaciones con herramientas cada vez más desarrolladas, esas mismas herramientas irán planteando mayores retos al propio objeto de estudio.


Tres iniciativas: las redes sociales como nueva base de datos

En Brasil, la empresa Bzsys bautizó su programa con el nombre de «Algoritmo de la vida» para la campaña de Rolling Stone, que en su vídeo promocional se proclama como «mucho más que una revista icónica» y promete prestar «oídos digitales a aquellos que estén pidiendo ayuda a gritos». Para el corpus lingüístico que utilizaron (el conjunto de textos que integra una base de datos con la que comparar las intervenciones públicas de usuarios en Twitter), recurrieron a diarios de suicidas; entre los más conocidos, los de la escritora británica Virginia Woolf, pero también los del líder de Nirvana, Kurt Cobain. Ahora esperan que, desde el momento en que se detectan signos de depresión en la red, se pueda derivar a las personas detectadas por mensaje privado a recibir tratamiento psicosocial.

«Code of Hope», o código de esperanza, es el algoritmo que se ha desarrollado Publicis España y la agencia digital WYSIWYG en alianza con el Teléfono de la Esperanza. Para identificar pruebas de depresión severa, se han añadido otras variables propuestas por el psicólogo Robert Plutchik, que recurrió a los perfiles de personas que se suicidaron para clasificar sus interacciones en 32 estados de ánimo relativos a la tristeza. Para su análisis, se rastrearon un millón de casos y se seleccionaron trescientos, marcados como «de alto riesgo». Ahora, una vez detectado un caso, hay que pasar a la acción. El programa informático o bot del Teléfono de la Esperanza en Twitter sigue al perfil detectado y lo pone en contacto con un chat virtual. Este nuevo procedimiento de Twitter, el DMCard o Card de Mensaje Directo, es el que permite que los voluntarios de la institución realicen el acompañamiento de la persona que el programa ha identificado.

Facebook tiene, como cabría esperar, sus propios algoritmos para escanear el material que publican sus usuarios. Solo en caso de que se detecte alguna irregularidad salta la alarma y, entonces, según el New York Times, un equipo de la empresa se pone en contacto con agencias de seguridad local. En un comunicado de Facebook, Mark Zuckerberg ha declarado que están trabajando con organizaciones como la Red Nacional de Prevención del Suicidio, Safe.org y Forefront para avanzar en el proyecto. Desde el 25 de mayo de 2018, cuando entró en vigor el Reglamento General de Protección de Datos (o GDPR, por sus siglas en inglés, General Data Protection Regulation), Facebook no puede operar este servicio en la Unión Europea.

Si el uso de la inteligencia artificial con fines sociales comienza por la identificación de lo que podrían considerarse patrones lingüísticos esenciales para anticipar una predisposición al suicidio en un nivel grave, es importante que se tengan en cuenta ciertas variables que parecen olvidarse, en ocasiones, cuando se programan tareas complejas para una máquina. En primer lugar, no sobra aquí recordar que los sesgos humanos acaban por traspasarse con frecuencia a la estadística que programamos. Últimamente aparecen titulares sobre lo machistas que son las máquinas cuando, en realidad, son los datos, que emanan de las personas que las utilizan y las alimentan, los que revelan las desigualdades de nuestra sociedad. También conviene incluir en los equipos de especialistas a más expertos en lingüística que puedan considerar algunos matices semánticos y pragmáticos del lenguaje, nunca exento de ciertas inclinaciones inconscientes y polarizaciones involuntarias en quienes trabajan con la configuración de los programas.

Aunque el aprendizaje automático ha avanzado a pasos de gigante, el reconocimiento apropiado de palabras como «desaparecer», «nunca», «morir» o «adiós» es muy complejo debido a las variedades contextuales del lenguaje humano. Aquí no se trata de aplicar un filtrado de fuerte carga léxica, como el que se utiliza, por ejemplo, para descartar el correo no deseado de nuestros mensajes mediante términos bastante inequívocos. Tampoco parece probable que suceda lo que habían programado para Siri: cuando el asistente oía (en inglés) la frase «quiero suicidarme», respondía: «Parece que hablar con alguien podría ayudarte. La línea de la National Suicide Prevention te ofrece apoyo confidencial personalizado veinticuatro horas al día» y facilitaba incluso la opción de marcar el número. Para que la máquina «aprenda» patrones de identificación consistentes y de mayor fiabilidad necesita un entrenamiento basado en un tejido lingüístico más allá de la superficie de las palabras o de simples frases. Dado que una gran parte de los sistemas que se están perfeccionando en la actualidad dependen de bases de datos, conviene obrar con cautela para no construirlas con sesgos que serán muy difíciles de borrar en un futuro próximo.


Publicado en Jot Down. Por Yolanda Morató

Comments


  • Facebook
  • Negro del icono del Amazonas
  • Instagram
  • YouTube
  • megustaescribir
  • goodreads-icon-10.jpg
bottom of page