Al observar el ojo humano, los algoritmos de Google podrían predecir si alguien tenía hipertensión arterial o si corría el riesgo de tener un ataque cardíaco o un derrame cerebral, según algunos investigadores de Google. Esa observación abrió una nueva oportunidad a la inteligencia artificial en la vasta y lucrativa industria de la salud mental.
De acuerdo a un estudio del hallazgo, publicado por la revista Nature Biomedical Engineering, los algoritmos no superaron los procedimientos médicos existentes, como los análisis de sangre.El trabajo debe ser validado y repetido en más personas antes de tener una aceptación más amplia, según indicaron varios médicos externos.
Pero el nuevo enfoque podría basarse en las capacidades actuales de los médicos al proporcionar una herramienta que las personas podrían usar algún día para detectar de forma rápida y sencilla los riesgos de salud que pueden contribuir a la enfermedad cardíaca, la principal causa de muerte en todo el mundo.
«Esta puede ser una forma rápida para que las personas evalúen el riesgo», escribió en un correo electrónico Harlan Krumholz, un cardiólogo de la Universidad de Yale que no participó en el estudio. «Una vía es capacitar a las personas con opciones rápidas para obtener información útil sobre su salud«, agrega en ese sentido.
Los investigadores de Google incluyeron imágenes escaneadas de las retinas de más de 280,000 pacientes en Estados Unidos y el Reino Unido en sus intrincados algoritmos de reconocimiento de patrones, conocidos como redes neuronales. Esos escaneos ayudaron a entrenar al sistema a observar signos reveladores que tendían a indicar peligros de salud a largo plazo.
Los profesionales médicos de hoy en día pueden buscar signos similares al de la retina extrayendo la sangre del paciente o evaluando factores de riesgo como su edad, sexo, peso y si fuman. Los propios sistemas, ahora, pueden revisar los datos que se necesitan para aprender los patrones que, a menudo, se encuentran en los ojos de las personas en situación de riesgo.
El verdadero poder de este tipo de solución tecnológica es que podría marcar el riesgo con una prueba rápida, barata y no invasiva que podría administrarse en una variedad de entornos, lo que permitiría a las personas saber si deberían someterse a un seguimiento.
La investigación fue realizada por Google y Verify Life Sciences, una subsidiaria de Alphabet (matriz de Google).
La idea de que los ojos de las personas pueden revelar signos de enfermedades cardiovasculares subyacentes no es tan extravagante como podría parecer. La diabetes y la presión arterial alta, por ejemplo, pueden causar cambios en la retina.
Krumholz advirtió que el procedimiento de escaneo de un ojo no está listo para reemplazar otros enfoques más convencionales. Maulik Majmudar, director asociado del Healthcare Transformation Lab, en el Massachusetts General Hospital, calificó el modelo de «impresionante», aunque señaló que los resultados muestran lo difícil que es hacer mejoras significativas en la predicción del riesgo cardiovascular. La edad y el género son poderosos predictores de riesgo, sin la necesidad de ninguna prueba adicional.
Cuando se presentaron imágenes de los ojos de dos personas diferentes, una que sufrió un episodio cardíaco adverso importante, como un ataque cardíaco o un accidente cerebrovascular dentro de los cinco años posteriores a la foto y otra que no, los algoritmos pudieron seleccionar correctamente al paciente que cayó enfermó.
Tecnologías similares de aprendizaje profundo se han disparado en los últimos cinco años y se usan ampliamente hoy en día en sistemas como la búsqueda de imágenes de Google y el reconocimiento facial de Facebook.. También se muestran prometedores en otros ámbitos de la salud, incluso buscando signos de cáncer en los escáneres de rayos X revisados por radiólogos.
Los investigadores de Google utilizaron métodos similares de aprendizaje automático en 2016 para buscar la retinopatía diabética, una enfermedad ocular que es una causa importante de ceguera. Esta vez, también usaron una técnica de aprendizaje automático conocida como «atención suave», para ayudar a identificar qué partes de la imagen fueron más instrumentales para impulsar la predicción de los algoritmos. Hoy en día no está claro cómo y por qué llegaron a esa conclusión: un problema que podría influir en la confianza de los resultados por parte de los médicos o pacientes.
La idea de que las características distintivas de la enfermedad podrían detectarse a través del análisis computacional ha sido atractiva para los ingenieros. DeepMind, la firma de desarrollo de inteligencia artificial, con sede en Londres, que Google compró en 2014 y que con frecuencia opera de manera autónoma, publicó una investigación que muestra algoritmos similares que podrían ayudar a detectar signos de glaucoma y otras enfermedades oculares.
En esa línea, a finales del año pasado, Apple lanzó un estudio de corazón relacionado con su reloj Apple Watch para ver si podía detectar y alertar a las personas sobre ritmos cardíacos irregulares que podrían ser un signo de fibrilación auricular, una de las principales causas de accidente cerebrovascular.