eSalud Blog

Big Data en cardiología: beneficios e impacto

Disponiendo de estudios epidemiológicos que posibiliten el reconocimiento preciso de los factores de riesgo, distribución y efectos, podría lograrse una modificación de los mismos, para prevenir de forma efectiva la cardiopatía isquémica e insuficiencia cardíaca.

Big Data en cardiología: beneficios e impacto

El Big Data unido a la computación de alto rendimiento permitirá detectar nuevos patrones dentro de amplios datasets, facilitando la decisión médica.

La genética juega un papel imporante en el desarrollo de la enfermedad

Hace unos años, la FDA ha aprobado el Alirocumab (Praluent); primer anticuerpo monoclonal que inactiva la proteína convertasa subtilisina/kexina 9(PCS-9), encargada de la degradación de los receptores LDL en el hígado. Al bloquear la misma, hay una mayor disponibilidad de los receptores y se incrementa la eliminación del LDL-colesterol, disminuyendo ostensiblemente sus niveles en sangre a cifras mucho más bajas que las alcanzadas con las estatinas.

Pero más allá del indiscutible avance farmacológico de este medicamento, lo verdaderamente relevante es que representa una nueva visión de la medicina, al constituir uno de los primeros reconocimientos exitosos de objetivos terapéuticos, mediante el análisis genómico, específicamente la mutación del PCSK-9, como mecanismo genético causal de la hipercolesterolemia familiar.

Este nuevo desarrollo de medicamentos llamados inductivos, parte de la premisa de que, una vez verificado que los genes juegan un papel importante en la progresión de la enfermedad y son objetivos terapéuticos, debemos identificar a los pacientes que reúnen las condiciones necesarias y suficientes entre el objetivo a lograr y la fisiopatología de la enfermedad cardiovascular.

Hoy solo alcanzaremos este objetivo analizando Big Data generado por variables epidemiológicas, los registros electrónicos y bases de datos genómicas.

Ventajas del Big Data en cardiología

El destacado cardiólogo japonés Masafumi Kitakaze, publica un interesante artículo sobre las tendencias particulares de las enfermedades cardiovasculares en Asia y Japón. Kitakaze llama la atención sobre la necesidad de disponer de estudios epidemiológicos que permitan el reconocimiento preciso de factores de riesgo, distribución y efectos sinérgicos, para lograr una modificación -a corto y mediano plazo- de los mismos y una prevención efectiva de la cardiopatía isquémica e insuficiencia cardíaca a nivel primario, secundario y terciario. Sugiere que el Big Data puede ser una vía de obtenerlo, aunque es escéptico sobre su aplicación inmediata.

Señales de atención para los cardiólogos sobre la necesidad de sintonizarnos con el Big Data y otros componentes en medicina. Existen realidades tecnológicas irreversibles que es imprescindible conocer por todos los cardiólogos como por ejemplo:

  • La computación de alto rendimiento (HPC) que usa el procesamiento paralelo para ejecutar aplicaciones avanzadas de manera rápida, eficiente y confiable.
  • La proporción de centros de supercómputo que emplean coprocesadores y aceleradores se ha duplicado en los últimos 2 años.
  • Los recursos de HPC en la nube son cada vez más accesibles siendo para los consumidores un servicio.
  • Una nueva plataforma tecnológica, identificada por IDC en 2007 y constituida por la informática móvil, servicios en la nube, Big Data y analítica.
  • El gasto mundial en software y hardware relacionado con Big Data crecerá a 125,000 millones de dólares y las grandes cadenas de suministro de datos como servicio crecerán en importancia como plataforma en la nube.
  • La adopción de infraestructura de nube como servicio (IaaS) crecerá un 36% en 2015.
  • El análisis de datos debe realizarse por un analista específico. La especialidad médica que diseñe una interrelación comunicativa, inteligente y bien orientada a objetivos concretos tendrá ventajas.

Nuevas soluciones y herramientas para el análisis de datos

El Internet de las cosas es un acelerador de la innovación y del crecimiento de los otros componentes, con el desarrollo de nuevas soluciones a través de dispositivos inteligentes, integrados más allá de las industrias de las telecomunicaciones, transformando varias áreas económicas como finanzas, transporte, salud, servicios basados en la localización, construcciones, etc.

Los datos inalámbricos serán los de mayor crecimiento en las telecomunicaciones. Además, las ventas de teléfonos inteligentes y tabletas alcanzarán los 484,000 millones de dólares en 2016. En 2015, hay 291 millones de objetos conectados en América Latina pero, ¿existen herramientas para el análisis? ¿cuáles debemos conocer?

Hadoop es un sistema Open Source, como una plataforma de almacenamiento de datos y análisis para Big Data, optimizado para manejar datos masivos a través de paralelismo usando un hardware económico. Este sistema surge para resolver parte de los problemas asociados al Big Data y a la aparición del Data Science. Tiene ventajas evidentes: es escalable linealmente en capacidad de almacenamiento y computación siendo tolerante a fallos, con un procesamiento distribuido. Utiliza desde unos pocos servidores, hasta miles de máquinas ofreciendo todas ellas calidad de servicio.

El Map Reduce – modelo de programación utilizado por Google para dar soporte a la computación paralela- trabaja grandes colecciones de datos en grupos de computadoras o clusters. Tiene ventajas como el acceso de datos en streaming, facilitados a medida que se consumen sin necesidad de descargarlos.  Los clusters de Hadoop están preparados para almacenar grandes volúmenes de ficheros de todo tipo. Pueden correr en máquinas de distintos fabricantes desplazando el algoritmo a los datos, disponiendo de herramientas de monitorización.

El procesamiento brinda estos importantes resultados:

  • Dotar de estructura lógica a los conjuntos de datos tratados
  • Almacenar los datos en el repositorio elegido
  • Analizar los datos disponibles para hallar relaciones.
  • Aplicar algoritmos a los datos.
  • Aplicar procesos estadísticos.
  • Resolver las peticiones lanzadas mediante el modelado.
  • Interpretación de grandes datos.
  • Interpretar las distintas soluciones.
  • Aportar un resultado final.
  • Ejemplos del impacto en 3 áreas de cardiología: epidemiología cardiovascular, imagen cardíaca y medicina basada en la evidencia.

La epidemiología cardiovascular, parte de la aplicación de los score de riesgos como el Framingham, Gaziano, OPS basado sobre aquellos factores de riesgo bien reconocidos (colesterol, hipertensión, tabaquismo, diabetes etc) existiendo a su vez un conjunto de factores de riesgo secundarios, diversos lipídicos y no lipídicos, por ejemplo: Lp-PLa2 o la Proteina C reactiva, cuyo peso específico siempre tiene limitaciones para aplicaciones individualizadas en el orden clínico.

Interoperabilidad y disponibilidad de los datos de salud

La adición de los datos de la Historia Clínica Electrónica tiende a mejorar cualquier predicción estableciendo órdenes jerárquicos de significación en grupos definidos, lo cual no hacemos en la actualidad. Al compartir factores de riesgo con la enfermedad cerebrovascular y el cáncer, permiten extender los modelos hacia una predicción global.

El Big Data en epidemiología cardiovascular permite estudiar topografías y grupos demográficos diversos. Grupos cuya amplitud puede modelarse según los propósitos de examen de prevalencias, o seleccionando subpoblaciones en áreas específicas. Estudiar la salud poblacional en áreas pequeñas permite diseñar políticas locales y planificar recursos que cada vez son más limitados. Si estas áreas tienen registros electrónicos, los datos pueden correlacionarse con hospitalización, permitiendo la verificación y supervisión continua.

Si hay integración de datos entre diferentes instituciones o áreas, se facilita la adopción de intervenciones ágiles con definición central. Otra ventaja adicional es disponer de múltiples datos ambientales no propios de salud pero que permitan una forma más completa de investigar, por ejemplo, la polución del aire para la cardiopatía isquémica.

La imagen cardíaca ha tenido un desarrollo creciente con la aparición de nuevas técnicas para determinar la función, estructura, perfusión , metabolismo y la caracterización de tejidos. La multimodalidad de imagen constituida por la ecocardiografía, la tomografía computarizada con multidetectores, la medicina nuclear, la resonancia magnética y los estudios angiográficos y de evaluación funcional de las lesiones, implican la generación de altos volúmenes de datos.

Acceder a gran cantidad de información almacenada determinará nuevas formas de análisis de imagen permitiendo clasificar al paciente en categorías. Además, mejorará el flujo de visualización.

 

Nuevas tecnologías para mejorar el compromiso y cuidado del paciente con su salud

El Big Data y la computación de alto rendimiento permitirán detectar nuevos patrones dentro de amplios datasets, facilitando la decisión médica. Por ejemplo, la correlación del Score Syntax con las diferentes modalidades de imagen en diferentes subgrupos de pacientes o un diagnóstico no invasivo más simple de las cardiopatías congénitas.

La medicina basada en evidencia conocida hasta ahora debe modificarse hacia una nueva dimensión, por la convergencia de avances tecnológicos y metodologías para transformar cantidades masivas de datos información útil. Esto, unido a un procesamiento en la nube cada vez más eficaz y la aparición de nuevos sensores y dispositivos.

En cardiología, el empoderamiento del paciente con dispositivos móviles y aplicaciones será un campo de desarrollo decisivo. Fundamentalmente, será clave en la insuficiencia cardíaca para su manejo extrahospitalario y la disminución de las costosas rehospitalizaciones. Pero también en la fibrilación auricular y los aspectos terapéuticos específicos.

Tras solventar el problema de la estandarización de datos dentro y entre hospitales con registros electrónicos, estos podrán ser una fuente de selección de candidatos a trials. La Pfizer ha dado un paso importante con el diseño del Exco in Touch e Diary Tool que permite la participación en trials a distancia, aunque creo que hay que modelar como alcanzar al paciente correcto, evaluarlo y monitorizarlo.

Quedan problemas para fortalecer el papel del Big Data pendientes de resolver. Por ejemplo, los incentivos para compartir datos y la preservación de la privacidad y establecimiento de los límites al anonimato.

El eminente Pío Baroja, una figura emblemática de la generación del 98 dijo ante los avances de fines del siglo XIX, “La modernidad será buena o mala pero hay un solo camino frente a ella: aceptarla”.

Ante estas nuevas transformaciones tenemos un solo camino: adoptar las nuevas tecnologías y mejorarlas por el bien de nuestros pacientes.

Dr. Juan Prohías

Posición actual: Director del Cardiocentro del Hospital Clínico-Quirúrgico Hermanos Ameijeiras. Especialización: cardiología, imagen cardíaca. Dr. en Medicina por la Universidad de la Habana. Profesor en Universidad de la Habana. Miembro de “American College of Cardiology”. Jefe del Grupo Nacional de Cardiología, Cuba. Director Médico del proyecto consorciado CYTED entre 2007-2011.

Compartir:

    Muchas gracias por su interés. Déjenos sus datos y en breve nos ponemos en contacto




    Nombre
    Apellidos
    Teléfono
    Correo electrónico (*)
    Organización
    País (*)



    Seleccione el producto de su interés:
    ehCOS CLINICehCOS SmartICUehCOS Remote healthehCOS Triageotros
    Comentarios: