Desde 2020, la inteligencia artificial (IA) ha sido uno de los temas de los que más se habla en el mundo. En salud, la aplicación de tecnologías basadas en la inteligencia artificial abrió un mundo de posibilidades, especialmente en lo que respecta a las formas de reducir los costos operativos y obtener una mayor asertividad en los tratamientos.
Sin embargo, el entusiasmo no siempre genera resultados positivos en la práctica. Nombre casos específicos de debacle la influencia de la IA en la salud puede resultar difícil, ya que varios factores influyen en el resultado. Aun así, un ejemplo clásico es el Watson Health de IBM. Puesta a la venta en 2021, se puede decir que la tecnología fracasó principalmente por el intento de aplicarla en contextos demasiado amplios, es decir, en varias instituciones, cada una con diferentes formas de operar y perfiles de audiencia variados.
A pesar de ello, el futuro de la IA en la salud sigue siendo prometedor. Para entender el momento actual de esta tecnología, vale la pena considerar algunos datos recientes:
- En 2023, el Índice de salud futura, un informe que plantea perspectivas sobre el futuro de la salud en todo el mundo, indicó que el 83% de los líderes entrevistados planean invertir en IA en los próximos tres años;
- La investigación de la ANAHP (Asociación Nacional de Hospitales Privados), realizada ese mismo año en asociación con la ABSS (Asociación Brasileña de Startups de Salud), muestra que 62,5% de los hospitales privados ya utilizan alguna tecnología de inteligencia artificial. Además, la investigación también indicó que se espera que las inversiones en este tipo de recursos aumenten hasta 12% este año;
- Se estima que el mercado de IA para la salud tiene una tasa de crecimiento anual de 36,4% de 2024 a 2030, según un informe de Grand View Research.
Pero, después de todo, ¿qué tan maduras y seguras son estas tecnologías en la actualidad? ¿Cuáles son los caminos más claros hacia el fracaso o el éxito de una tecnología?
La IA en la asistencia sanitaria en 2024
Definir qué tan maduro es un tipo de tecnología puede ser un desafío. Sin embargo, para estipular la respuesta a esta pregunta, es posible recurrir a las segmentaciones de aplicaciones de IA.
«En términos generales, no estamos en una fase temprana. La inteligencia artificial existe desde hace más de 50 años, pero el nivel de madurez de estas tecnologías depende en gran medida del problema al que se enfrente. No existe una inteligencia artificial que resuelva todos los problemas», explica Daniella Castro, investigadora, cofundadora y directora de tecnología de Huna, una startup que desarrolla soluciones para optimizar el diagnóstico del cáncer y las enfermedades crónicas.
Teniendo en cuenta un escenario más amplio, las aplicaciones de inteligencia artificial en el mercado del marketing y las redes sociales, por ejemplo, «ya están muy maduras», afirma el experto. Sin embargo, «todavía queda un buen camino por recorrer en materia de salud», afirma Daniella.
En salud, el experto indica que las principales aplicaciones de las tecnologías de inteligencia artificial se han centrado en las soluciones para gestión hospitalaria y asistencia clínica. En este sentido, el médico y director de Innovación Aplicada e Inteligencia Artificial de Dasa, Felipe Kitamura, asegura que, en el ámbito de la salud, la IA aún está en «pañales».
Esto se debe a que «lo que es tecnológicamente posible ya es muy diferente de lo que encontramos en la realidad. Hemos visto varias implementaciones prácticas de la inteligencia artificial en los últimos años, pero incluso con este avance y varios usos prácticos, todavía queda mucho por hacer», explica Kitamura.
Aun así, ya es posible pensar en elementos que pueden influir en el éxito o el fracaso de una tecnología. Para ello, debemos considerar la forma en que se construyó la tecnología, su propósito Y tu contexto. «Debido a las características de cada negocio, puede resultar más o menos difícil demostrar el valor de una solución en particular», afirma Felipe.
Fracasos y cuellos de botella de la IA en la salud
En 2021, Watson Health de IBM salió a la venta y fue una de las primeras tecnologías en ser vista como un fracaso por parte del mercado. Las razones que lo llevaron a ello fueron varias, pero la principal fue la ambición inicial de querer llevar a cabo varias tareas diferentes, atendiendo a públicos muy diferentes.
Otros elementos que también contribuyen al fracaso de la tecnología de IA son:
- Recopilación de datos de mala calidad;
- Datos generados con sesgos;
- Procesamiento de datos inadecuado;
- Tecnología de alto costo;
- Estabilidad del contexto en el que se aplicará;
- Si la tecnología se creó para resolver un problema, o si es una solución en busca de uno;
- Falta de formación de los profesionales para el uso de la tecnología.
Sin embargo, también hay otros cuatro problemas técnicos que influyen directamente en el camino de una tecnología de IA. Según Kitamura, son:
1. Capacidad de generalización
Para desarrollar un algoritmo, es necesario utilizar una base de datos como base. Y es probable que los resultados sean positivos, pero de ¿Cuánto tiempo? Em Qué contextos ¿Persistirá el rendimiento óptimo?
«Si utiliza datos de otras instituciones, no hay garantía de que funcione. Cuando el modelo funciona con datos de otra institución, el algoritmo se generaliza. Cuando no funciona, decimos que no se ha generalizado. Y eso no siempre es binario. La generalización puede ser parcial. Por ejemplo, al entrenar los datos de mi institución, obtuve un algoritmo con un 90% de precisión, pero cuando lo llevamos a otra institución, puede quedarse con el 90%, puede caer al 88% o incluso menos», ejemplifica Felipe.
2. La deriva de los datos y el problema de la precisión
Accuracy es la palabra que se utiliza para describir el encuentro de la "exactitud" con la "precisión". Si bien la exactitud se refiere a qué tan cerca está un conjunto de mediciones de un valor real, la precisión se refiere a qué tan cerca están las mediciones entre sí.
En este sentido, la precisión de una tecnología de IA en la salud puede estar influenciada por diferentes factores. Entre ellos: los cambios en el perfil de la audiencia atendida, la sustitución del equipo durante los exámenes (por ejemplo, el cambio de marca de un escáner de tomografía computarizada y la obtención de imágenes con una calidad diferente a la de la máquina anterior), entre otros.
Por lo tanto, aunque la precisión sea buena al principio, cuando se pone a trabajar todos los días puede perder precisión con el tiempo y «no porque el algoritmo haya cambiado, sino porque los datos cambian con el tiempo en todas las instituciones, es natural». En inglés, esta situación se denomina "data drift" y representa los cambios en la base de datos de un algoritmo.
3. Fairness
"Fairness" es la palabra en inglés que significa justicia. Dentro del mercado de la tecnología de la salud, este concepto hace referencia al respeto y la transparencia con los pacientes.
Esto significa que si una tecnología no ha sido capacitada adecuadamente para ser utilizada con un público específico, no debe usarse con ellos. Por ejemplo, a veces un algoritmo se estructura con datos de adultos pero no de niños. Por lo tanto, la herramienta no se puede aplicar a los niños porque es sesgada y puede ser engañosa. En otras palabras, lo mismo ocurre con algunas enfermedades, etnias y perfiles demográficos.
«Tengo que ser justo con los pacientes. En un mundo ideal, los modelos de algoritmos estarían sesgados y funcionarían perfectamente para todos, pero sabemos que en el mundo real esto no siempre sucede. Y cuando eso no sucede, es necesario ser transparente: sabía que mi modelo no funcionaba para niños, así que no puedo usarlo para niños. Solo lo usaré en adultos, porque sé que si lo uso de niño les perjudicaré, porque cometerán muchos más errores con este público», ejemplifica Kitamura.
4. La relación entre la confianza y el resultado clínico
Por último, la confianza de un profesional en la inteligencia artificial es fundamental para que todo ocurra correctamente. Sin embargo, no se trata de confiar a ciegas, es necesario tener equilibrio.
Como explica Kitamura, «el hecho de que un algoritmo funcione muy bien y acierte muchas veces no significa que, cuando lo pongo a trabajar en el hospital o la clínica, el médico empiece a hacerlo bien solo porque tiene el algoritmo disponible». Esto se debe a que pueden ocurrir dos escenarios peligrosos.
El primero es el caso del exceso de confianza. «Si el médico empieza a confiar ciegamente en el algoritmo y no en su propia opinión, la precisión final que tendrá el paciente será, en última instancia, la del algoritmo, porque se limita a copiar y pegar la respuesta del algoritmo», ejemplifica el médico.
Por otro lado, la desconfianza excesiva también puede causar daño. Por ejemplo, en los casos en que el médico tenga miedo de la tecnología y no quiera utilizarla, el resultado se basará únicamente en la precisión del médico. En ese caso, no hay forma de saber si el algoritmo pudo haberlo hecho bien o no.
«La mejor manera de usar el algoritmo es que el médico tenga su propio juicio basado en el estudio al que se sometió. Entonces el médico debe ser un buen médico, tiene que conocerlo bien para conocer los casos en los que el algoritmo está claramente equivocado. Si no confía y desprecia el resultado del algoritmo, confía en su propia opinión. Eventualmente, sucederá que el médico tomó un juicio equivocado, debido al cansancio, la fatiga o cualquier otro motivo. Luego, cuando el algoritmo presenta un resultado que difiere de lo que pensaba, es una oportunidad para que reconsidere y revise el caso, de modo que pueda mejorar su precisión. Así que ese es otro desafío importante de la interacción hombre-máquina. ¿Cómo asegurarse de que el médico sepa cómo hacerlo? ¿Que de hecho sabrá cómo usar la plataforma?» añadió Felipe Kitamura.
Historias de éxito
Por otro lado, las innovaciones más especializadas están pasando un buen momento. En Brasil, la Sociedad Brasileña de Informática de la Salud (SBIS) es una de las organizaciones que ayudan a pensar qué funciona y qué no. Según Grace Sasso, vicepresidenta de SBIS, «lo que funciona en este momento es principalmente medicina de precisión y predictivo», dice el experto. «Otro punto es el optimización de la eficiencia y la gobernanza de los recursos. Cuanto más se utilice, mejores serán las operaciones, ya sea en áreas institucionales, en áreas hospitalarias, en el área de atención primaria de salud o en clínicas», agrega Grace.
En este sentido, es posible apoyarse en dos Casos de los éxitos que se produjeron en Dasa.
1. Algoritmo para acelerar la obtención de imágenes por resonancia magnética
En uno de sus proyectos de inteligencia artificial, Dasa aplicó un algoritmo a 80 máquinas que aceleró el tiempo necesario para generar las imágenes de resonancia magnética. La imagen acaba saliendo con un poco de ruido, pero el algoritmo la reconstituye hasta que recupera la calidad.
Los resultados finales de esta aplicación fueron: los pacientes ahora pasan menos tiempo en la incomodidad de la máquina y se ha aumentado el número de exámenes realizados por día, lo que es beneficioso para los pacientes y para las empresas involucradas. «Esto es fantástico para el sector de la salud en su conjunto, ya que el proveedor puede reducir los costos y realizar más exámenes sin aumentar los gastos», afirma Felipe.
Otro punto positivo es que, al optimizar los equipos existentes, la ausencia de mayores gastos reduce la necesidad de repercutir los costos en los pacientes.
2. Tecnología para ampliar los diagnósticos
Otro proyecto que está funcionando bien en Dasa es una tecnología desarrollada para ayudar a detectar enfermedades lo antes posible.
«A veces, el paciente se somete a un examen y no devuelve la cita. Puede deberse a que el dolor que estaba sintiendo mejoró, pero hay un porcentaje relevante de casos en los que encontramos algo en el mismo examen que no se sospechaba. Por ejemplo, la persona tenía dolor de estómago y se sometió a una tomografía computarizada del abdomen. En cuanto al dolor de estómago en sí, no tenía nada. Es que descubrimos accidentalmente un tumor en el hígado. Esto ocurre con cierta frecuencia y ¿te imaginas si esa persona no se va a presentar al examen? A veces tenía un tumor que era curable y, seis meses después, ya no es curable», dice Felipe Kitamura.
Así nació el modelo de procesamiento del lenguaje natural de Dasa, que hoy lee más de 8,000 informes diarios sin sacar al radiólogo de la oficina.
«El radiólogo sigue ahí, organizándose de la misma manera. Mira la imagen, escribe el informe y publica el resultado. Cuando el informe está listo, estos algoritmos leen todos los informes y, cuando identifican una enfermedad que requiere un paso más, ya sea una biopsia o alguna otra prueba, el algoritmo detecta estos casos y, a continuación, el médico examinador llama a los médicos de los pacientes para informarles de los resultados», explica Kitamura.
La decisión de dar el siguiente paso en la investigación acaba siendo tomada por el médico y su paciente. Aun así, Dasa ya ha podido demostrar que esta tecnología reduce de 17 a 7 días el tiempo del paciente para iniciar la siguiente fase. Además, esta medida genera un buen rendimiento económico, ya que el tratamiento tardío suele ser más caro para el sistema de salud.
El futuro
Finalmente, la especialista en IA y vicepresidenta de la SBIS (Sociedad Brasileña de Informática Sanitaria), Grace Sasso, dice que ve como tendencia para 2024 la expansión de: tecnologías persuasivas, modelos que ayudan a optimizar precisión Medicina y herramientas de predicción.
Para el mercado, refuerza que uno de los desafíos a los que nos enfrentaremos de ahora en adelante está relacionado con la accesibilidad y la equidad en salud.
«Necesitamos capacitar a las personas para mejorar el desarrollo de las tecnologías y, al mismo tiempo, prestar más atención a la opinión de quienes hacen uso de la información. Hay muchas aplicaciones en las que se graba la información, pero no se sabe adónde van esos datos, no se los devuelve ni se garantiza su almacenamiento. Por ejemplo, ¿dónde se almacenan estos datos? ¿Quién lo usa? ¿Por qué lo usan? Tenemos que ser cada vez más cuidadosos con estos aspectos. Seguimos la línea de la «superinteligencia», pero la sociedad no está preparada para ello. Hay que preservar a los seres humanos, hay que escucharlos y, además, nos encontramos en una dicotomía y no creo que podamos volver atrás», concluye Grace Sasso.