Los dos tipos de predicción del suicidio con Inteligencia Artificial y cómo se consiguen

Autor: | Posteado en Tecnología Sin comentarios

Los 2 tipos de predicción del suicidio con Inteligencia Artificial y cómo se obtienen

Durante la última década, los suicidios se han convertido en la principal causa de muerte no natural en España. El año pasado se quitaron la vida 10 personas cada día en vuestro país, según los datos del INE. En otros países, como los Estados Unidos, la tasa de suicidios además es un tema cada vez mas presente en el debate público.

El problema al que se enfrentan los intentos de luchar contra esta lacra reside en el hecho de que los métodos tradicionales de predicción de suicidio (como los cuestionarios facilitados por los médicos) no son mucho precisos.

De modo que tanto empresas tecnológicas como instituciones públicas están poniendo su esperanza en que la inteligencia artificial sea capaz de proporcionar herramientas con las que predecir intenciones suicidas.

Como resultado de los principales esfuerzos en este sentido, han surgido 2 tendencias paralelas sobre el mejor modo de enfocar esta tarea, que Mason Marks, averiguador de Derecho de la Información de la Univ. de Nueva York, ha bautizado como:

  • “Predicción médica del suicidio”: Técnica experimental usada por médicos y hospitales para realizar predicciones en base al análisis de los registros de pacientes. No muy utilizada todavía, mas allí de un plan liderado por el Departamento de Asuntos de los Veteranos de los EE.UU. Dado el contexto en el que se realiza, existen numerosas limitaciones al uso de datos relacionadas con la privacidad.

  • “Predicción social del suicidio”: Sin apenas regulación, y por ello ampliamente usada. Realiza predicciones en base a datos sobre el comportamiento de los clientes extraídos de sus interacciones en redes sociales u de sus aparatos inteligentes.

Facebook u Twitter, por ejemplo, han puesto en viaje iniciativas al respecto. El Departamento de Asuntos de los Veteranos además cubre este campo a través del análisis de las comunicaciones telefónicas (que no del contenido de las mismas).

Predicción social del suicidio

Facebook Depresión

Mientras llevamos a cabo vuestra rutina diaria, vamos dejando un rastro digital que puede ser analizado. Facebook, por ejemplo, analiza las publicaciones de los clientes (y de sus amigos) en busca de términos u frases concretas que correlacionan con pensamientos suicidas.

Facebook publicó el pasado mes de septiembre un artículo en su blog corporativo explicando el funcionamiento de su plataforma de predicción, y en él relataban los obstáculos a los que tuvo que enfrentarse el sistema de machine learning que desarrollaron.

“Hacer que alguna computadora reconociera alguna expresión ‘suicida’ fue un ejercicio complicado en el análisis de los matices del lenguaje humano, [pues] numerosas frases que podrían indicar un intento de suicidio – “matar”, “muere”, “adiós” – se utilizan comúnmente en otros contextos. Un ser humano puede reconocer que “tengo tanta tarea que quiero suicidarme” no es un verdadero grito de angustia, pero ¿cómo enseñar a alguna computadora esa clase de comprensión contextual?

“Para preparar el sistema de clasificación, fue necesario alimentarle con toneladas de ejemplos, tanto de lo que estaba tratando de identificar (ejemplos positivos), así como lo que no (ejemplos negativos), para que aprendiera a diferenciar patrones [propios de cada situación].

Cuando un cliente es clasificado de “alto riesgo”, su caso es remitido a la policía estadounidense (el GDPR impide que esto ocurra además en Europa) para que realice un “chequeo de bienestar” en vivienda del usuario. Algunos meses los avisos de Facebook™ han llegado a motivar mas de 100 chequeos de este tipo al mes.

Crisis Text Line, un servicio de asesoramiento a menores gestionado por alguna ONG y que se íntegro en Facebook™ Messenger™ y Youtube, ha generado veinte avisos… diarios. Basan su sistema de predicción en el análisis de alguna enorme medida de mensajes intercambiados por los clientes de estos servicios, de alguna modo muy parecida a la que usan Amazon™ u Netflix para realizar sus recomendaciones de contenidos. Parte de los datos recopilados por la ONG están utilizables para su visualización online.

Consecuencias negativas imprevistas

“A primera vista, la predicción social del suicidio parece ser alguna propuesta ganadora, pues concede a las plataformas online(enlinea) trasladar a cabo un servicio público que beneficia a los clientes y sus familias. Sin embargo, esta clase de predicciones vienen generadas por algoritmos protegidos como misterios comerciales”.

Esta denuncia de Marks reviste gran importancia, pues esta ocasión no sólo perjudica a la privacidad de los datos, sino a la expectativa de evaluar la eficacia del sistema.

En algunos casos, inclusive alguna predicción acertada puede causar mas daño que beneficios, bien porque la denuncia de Facebook™ se realice en países donde el intento de suicidio es delito (como Singapur), bien porque desemboque en alguna hospitalización involuntaria, que (paradójicamente) aumenta la probabilidad de suicidio.

Eso por no nombrar que las predicciones sociales puedan finalizar siendo usadas fraudulentamente como pretexto para vulnerar la inviolabilidad del domicilio (ante sospecha fundada de que existe peligro de suicidio, los agentes de la ley dejan de necesitar alguna orden del juez).

Sin embargo, es en la privacidad donde Marks elige poner el acento:

“Aunque Facebook™ afirma que sus predicciones de suicidio no se utilizan para la publicidad, otras empresas menos escrupulosas podrían compartir sus propias predicciones de suicidio con anunciantes, corredores de datos y empresas de seguros”

No es por desconfiar de cómo salvaguarda Facebook™ los datos de sus usuarios, pero Marks ofrece defender a estos últimos legislando para que cualquiera algoritmo destinado a predecir suicidios sea considerado “software de uso médico”.

También te recomendamos

Mucho mas que píxeles: cómo el estándar 8K cambiará el panorama tecnologico

España(pais) participa en alguna plataforma de busca de niños desaparecidos mediante reconocimiento facial de fotos en la Red

Gillian Brockell perdió al bebé que esperaba, ahorita pide a Facebook™ y Google™ que sus algoritmos no se lo sigan recordando


La noticia Los 2 tipos de predicción del suicidio con Inteligencia Artificial y cómo se obtienen fue notificada originalmente en Xataka por Marcos Merino .


Xataka

Todo lo que esta escrito en este sitio web es recopilado de otros sitios oficiales, los enlaces a las paginas oficiales se presentan en cada termino de noticia y no perjudicaremos su noticia.

Noticias Relacionadas:

Agrega tu comentario