Política de cookies

Utilizamos cookies propias y de terceros para recopilar información que ayuda a optimizar su visita. Las cookies no se utilizan para recoger información de carácter personal. Usted puede permitir su uso o rechazarlo, también puede cambiar su configuración siempre que lo desee. Al continuar con la navegación entendemos que se acepta nuestra política de cookies.

¿Quiere recibir la Publicación de Ingeniería Sanitaria en su correo de forma gratuita?
Miércoles, 24 de junio de 2015  |  NÚMERO 9 Año I Acceda a nuestra hemeroteca
SEGÚN ANDRÉS GARCÍA PALOMO, DEL HOSPITAL DE LEÓN
El ‘big data’ ahorrará hasta 260.000 millones a los sistemas de salud
Las tecnologías de análisis necesitan poder aprovechar toda la información generada por el paciente
 
Marcos Domínguez / Imagen: Miguel Fernández de Vega. Gredos (Ávila)
El interés por el big data en la sanidad ha crecido en los años exponencialmente. Las posibilidades del uso de enormes cantidades de información, estructurada o no, se van descubriendo con cada pequeño paso en esa dirección. En su conjunto, se calcula que el ‘big data’ puede ahorrar a los sistemas sanitarios hasta 300.000 millones de dólares (más de 260.000 millones de euros).

 De izq. a dcha.: Martínez Sesmero, Sánchez Fierro, García Palomo y Hernández Medrano.


La cifra la ha proporcionado Andrés García Palomo, jefe de Oncología del Hospital de León, en la mesa dedicada a este concepto celebrada en el marco del I Encuentro Global de Farmacia Hospitalaria, que ha organizado Sanitaria 2000 y ha contado con el patrocinio de Becton Dickinson y Gilead. Pero avisa: “Necesitamos ‘real world data’, resultados en salud”, y eso implica pasar de la Medicina “como ciencia experimental a una basada en la observación”.

Y es que el big data no son bases de datos: el volumen de información que implica “no es posible manejar en bases de datos”. Se trata de pasar de petabytes (un petabyte son mil terabytes) a exabytes (equivalente a mil petabytes) de información. Además, se trata de variedad: “No se trata solo de bases de datos estructurados, Facebook y Google son ‘big data’, pero también las cámaras de los móviles”. Y es que “la gente está comunicando continuamente su estado de salud”, ya hay algoritmos que detectan hipoglucemias basados en el número de llamadas de teléfono. García Palomo considera, no obstante, que para aprovechar el potencial de los resultados en salud hay que rediseñar las redes de atención “en función de la demanda y no de la oferta”.

Priorizar pacientesPor su parte, José Manuel Martínez Sesmero, del Servicio de Farmacia del Complejo Hospitalario de Toledo, ha resaltado el análisis en tiempo real de los datos obtenidos para poder tomar decisiones. “Podemos identificar qué pacientes salen más caros y establecer estrategias de priorización”, ha señalado, y pone un ejemplo: estratificando el riesgo de los pacientes en el momento del alta hospitalaria “se puede evitar un tercio de los reingresos”.

Sin embargo, Martínez Sesmero hace dos matizaciones: por un lado, se pregunta si todos los datos tienen la misma calidad y si nos ayudan de igual manera a la toma de decisiones; por otro, apunta al ‘big data’ como “una herramienta más” en la gestión. Y para usarla hay que apostar por ella: incluso en un país tan avanzado tecnológicamente como EEUU “todavía hay un 30 por ciento de datos clínicos sin digitalizar”.

La secuenciación del genoma, al alcance de la mano

El sueño –o la pesadilla, según se mire– de que un ordenador pueda realizar un diagnóstico certero todavía no se ha
conseguido, a pesar de que desde 2012 hay un premio de 10 millones de dólares en Silicon Valley (la cuna mundial de la informática) para desarrollar un algoritmo que permita diagnosticar mejor “que un equipo de médicos bien entrenado”, ha detallado Ignacio Hernández Medrano, adjunto a la Dirección Ejecutiva del Instituto Ramón y Cajal de Investigación Sanitaria. “Pero probablemente no estemos tan lejos”.

Hernández Medrano no hace un brindis al sol: el desarrollo tecnológico da pasos de gigante en corto espacio de tiempo. Pone como ejemplo la secuenciación del genoma: a principios de la década pasada se consiguió pero costó mucho tiempo y dinero; ahora, se puede hacer por 300 dólares (267 euros), por lo que en breve “todo el mundo secuenciará su genoma”. Además, recalca el interés de los tecnólogos por la biotecnología, que vaticina que “se va a democratizar como hizo en su momento con la informática”.

Cuentas pendientes

Pero ojo: para aprovecharse del maná que genera el análisis de grandes cantidades de datos quedan, no hay que olvidarse, algunas barreras más profanas, ha avisado Julio Sánchez Fierro, vicepresidente del Consejo Asesor de Sanidad, que ha moderado la mesa. “Falta cultura colaborativa”, ha advertido, “y consenso social e institucional al respecto”. Ha puesto como ejemplo puntual el rechazo del parlamento catalán al proyecto de ‘big data’ en la región, y es que hay suspicacias sobre su utilización por empresas privadas.

Según Sánchez Fierro, la sociedad tiene la convicción de la importancia del big data, pero para pasar al ‘open data’ (datos abiertos y en disposición de usarse) “primero hay que aprobar la anterior asignatura”.