La IA entrenada con datos de millones de personas predice el riesgo de muerte con una confiabilidad increíble

IA

Un nuevo modelo de inteligencia artificial entrenado con los datos personales de 6 millones de daneses puede predecir el riesgo de muerte por todas las causas con una precisión increíble, superando las herramientas utilizadas por las compañías de seguros. Esta tecnología puede aportar importantes beneficios en términos de salud y prevención social. Sin embargo, según los desarrolladores, también puede conllevar riesgos importantes, especialmente si se utiliza de forma poco ética.

Los algoritmos se han utilizado durante décadas para realizar una amplia variedad de pronósticos. Entre ellos se incluyen, por ejemplo, los algoritmos utilizados para predecir el desarrollo de fenómenos climáticos y epidemias. Por otro lado, en la era de las redes sociales, los algoritmos para predecir el comportamiento individual se han vuelto algo común.

Sin embargo, predecir los resultados de la vida humana se encuentra en otro nivel de dificultad. Aunque es bien sabido que los factores sociodemográficos desempeñan un papel importante en nuestras trayectorias vitales, la mayoría de los intentos de predecirlos son imperfectos y carentes de precisión. Investigadores de la Universidad Técnica de Dinamarca han sugerido que los grandes modelos lingüísticos (LLM) podrían cambiar esta situación si tuvieran acceso a datos suficientemente detallados.

En un nuevo estudio publicado en la revista Ciencia Computacional de la Naturaleza, un equipo de investigadores examinó hasta qué punto estos modelos son capaces de predecir escenarios de vida individuales basándose en secuencias detalladas de eventos.

11% más confiable que las herramientas utilizadas por las compañías de seguros

Como parte de su estudio, los investigadores convirtieron un gran conjunto de datos en secuencias de palabras, que sirvieron de base para su gran modelo de lenguaje, llamado Life2vec. Este modelo analiza una serie de eventos que ocurren durante la vida de una persona para determinar qué es más probable que suceda a continuación.

Lee: 8 preguntas sobre inteligencia artificial

Los avances en IA permiten capturar patrones complejos en datos lingüísticos masivos y no estructurados. Esto es posible gracias a Transformers, una de las arquitecturas de modelos de aprendizaje profundo más potentes que puede realizar predicciones a partir de palabras, imágenes y otros tipos de datos sin la necesidad de un procesamiento ordenado. Sin embargo, nunca antes se habían utilizado modelos con esta arquitectura para procesar datos socioeconómicos.

» Nuestro conjunto de datos cambia esta situación «, escriben los expertos en su trabajo. En particular, la amplitud de este conjunto permitirá construir representaciones de las trayectorias de vida individuales de una persona, detallando cómo se desarrolla cada persona a lo largo del tiempo, explican.

Los datos sobre los que se construyó Life2vec consisten en registros individuales detallados de 6 millones de daneses de entre 35 y 65 años durante un período de 10 años. Estos datos incluyen muchos indicadores como el estado de salud, ocupación y horas de trabajo, ingresos, lugar de residencia, nivel educativo, etc. Los investigadores pidieron al modelo que predijera el curso de vida de estas personas, es decir, quién morirá y quién morirá. vivir, sabiendo que la mitad de ellos morirán entre 2016 y 2020.

Se descubrió que Life2vec es un 11% más confiable para predecir trayectorias de vida individuales que cualquier otra IA o herramienta utilizada por las compañías de seguros para fijar el precio de las pólizas de seguro de vida. El modelo también fue mejor para predecir puntuaciones de pruebas de personalidad para un subconjunto de participantes que otras IA entrenadas específicamente para este propósito.

Según los expertos, estos resultados se explican porque el modelo fue entrenado con datos suficientes para poder analizar y predecir una amplia gama de aspectos sociales y médicos. Esto sugiere que podría ser utilizado por instituciones médicas para un diagnóstico preventivo temprano o por gobiernos para predecir desigualdades sociales.

Sin embargo, este modelo también puede utilizarse con fines poco éticos. “Obviamente, nuestro modelo no debería ser utilizado por una compañía de seguros, porque la idea general de los seguros es que al compartir la ignorancia de quién será la persona desafortunada que tendrá un accidente, una muerte o una pérdida de empleo, podemos compartir la carga de alguna manera”, dijo a New Scientist la coautora del estudio Sune Lehmann Jørgensen de la Universidad Técnica de Dinamarca. En otras palabras, las compañías de seguros podrían evitar tratar injustamente a sus clientes si tuvieran dicha herramienta a su disposición.

Sin embargo, es probable que las aseguradoras no sean las únicas tentadas a obtener una herramienta de este tipo y utilizarla en su detrimento. Por ejemplo, en lugar de prevenir la desigualdad social, una herramienta puede exacerbarla al caer en manos de personas malintencionadas.