Entérate   

Número 11

10 de diciembre de 2025

Sesgos algorítmicos y aprendizaje automático. ¿Puede la inteligencia artificial profundizar la desigualdad en salud?

Por: Edgar Ortiz Brizuela y Bruno Ali López Luis
INTRODUCCIÓN
En la cultura popular abundan los ejemplos de tecnologías con la capacidad de proporcionar asistencia médica de manera automatizada. Uno de los más conocidos es Baymax, personaje de la película Big Hero 6 de Disney (Gavero & Guerrero, 2017). Se trata de un robot diseñado para identificar la necesidad de atención médica —por ejemplo, al reconocer que su usuario siente dolor— y con la capacidad de ofrecer un diagnóstico e indicar un tratamiento en consecuencia (algo similar a un médico de cabecera, pero disponible las veinticuatro horas del día y los trescientos sesenta y cinco días del año, con acceso ilimitado al conocimiento médico y a todos los métodos diagnósticos existentes). Al momento de su estreno en octubre de 2014, dispositivos de este tipo parecían lejanos e incluso inalcanzables para muchas personas. Sin embargo, en los últimos años, con la llegada de tecnologías como ChatGPT y otros sistemas basados en inteligencia artificial (IA) generativa, lo que antes parecía ciencia ficción comienza a perfilarse como una posibilidad real incluso a corto o mediano plazo.

Si bien existen grandes expectativas sobre el potencial de estas herramientas en el ámbito de la salud —por ejemplo, para lograr diagnósticos más rápidos y precisos, ampliar el acceso a los servicios o acelerar la investigación y la innovación— también es necesario reconocer que conllevan riesgos significativos. Estos riesgos no sólo incluyen posibles daños directos a la salud de las personas (por ejemplo, a través de recomendaciones inapropiadas), sino que también pueden tener consecuencias negativas en la sociedad, como ampliar las desigualdades en el acceso y la calidad de la atención o incluso reproducir y profundizar las brechas existentes entre distintos grupos (OMS, 2021b).


 
Ilustración: Monserrat García Silva

En este artículo buscamos plantear este debate, mostrando tanto las oportunidades que ofrece la IA en salud, como los riesgos que conlleva, con especial atención a su impacto en la equidad. Para hacer la lectura más amena hemos organizado el texto en forma de preguntas y respuestas. Abordaremos las siguientes cuestiones: ¿cómo funciona la IA en términos simples?, ¿cuáles son sus principales aplicaciones en el ámbito de la salud?, ¿qué problemas puede generar su uso indiscriminado y qué dilemas éticos plantea, en particular aquellos relacionados con un posible aumento de la desigualdad? y, por último, ¿qué recomendaciones deben tenerse en cuenta para que los usuarios puedan aprovechar sus beneficios con el menor riesgo posible de consecuencias negativas?

¿CÓMO FUNCIONA LA IA?
La Organización Mundial de la Salud (OMS) define a la IA como “la capacidad de los programas informáticos para realizar tareas que normalmente se asocian con los seres inteligentes” (OMS, 2021a). Para cumplir esa función, la IA se basa en algoritmos, una serie de procedimientos o instrucciones que permiten resolver un problema sin tener que inventar una solución cada vez que se presenta (Abiteboul & Dowek, 2020). Un algoritmo puede compararse con una receta: recibe información de entrada (por ejemplo, los ingredientes para hacer pan), la procesa siguiendo un conjunto de reglas precisas (la receta en sí) y produce un resultado de salida (el pan ya preparado) (Abiteboul & Dowek, 2020).

Para poder generar dichos algoritmos, la IA se alimenta de grandes cantidades de datos que le permiten identificar patrones y aplicarlos a las tareas que interesan a los seres humanos (OMS, 2021a). Un ejemplo son los grandes modelos de lenguaje (LLM, siglas en inglés de large language models) como ChatGPT, que requirieron enormes volúmenes de información para su “entrenamiento”. Gracias a dicho proceso, son extremadamente hábiles para reconocer patrones de lenguaje y completar oraciones. Si uno escribe “no por mucho madrugar”, sus algoritmos internos responden con claridad “amanece más temprano” y añaden una explicación sobre el significado de este dicho en la cultura popular mexicana.

¿CUÁLES SON SUS PRINCIPALES APLICACIONES EN EL ÁMBITO DE LA SALUD?
Del mismo modo que la IA puede entrenarse y utilizarse para predecir algo tan sencillo como las palabras que completan un refrán, también puede aplicarse —y de hecho se aplica desde hace muchos años— a la resolución de problemas médicos concretos. Existen múltiples ejemplos desde la segunda mitad del siglo XX de su uso en este campo (Kaul, Enslin & Gross, 2020). Desde los años noventa hay artículos sobre el uso de redes neuronales —modelos computacionales inspirados en el funcionamiento del cerebro humano que aprenden a reconocer patrones a partir de datos— para ayudar a diagnosticar enfermedades como el infarto agudo de miocardio (Baxt, 1991). Para una introducción accesible al funcionamiento de las redes neuronales biológicas y a sus paralelismos con los modelos computacionales, recomendamos consultar el número “Cerebro: un universo en nuestro interior” UNAM Internacional 10 (https://revista.unaminternacional.unam.mx/). Otro ejemplo son los sistemas expertos —programas informáticos diseñados para imitar el razonamiento de un especialista humano mediante reglas predefinidas— con el objetivo de reproducir diagnósticos similares a los que realizaría un médico (Miller, Pople & Myers, 1982).

Las aplicaciones de la IA en medicina son numerosas y continúan en expansión (OMS, 2021a). Existen distintas maneras de clasificarlas y una de las más aceptadas es por su uso final: hay aplicaciones directas en la atención médica como apoyo en diagnósticos por radiología (Rajpurkar y otros, 2018); en la investigación, por ejemplo, para impulsar la medicina de precisión o para hacer más eficiente el desarrollo de fármacos (Kant, Deepika & Roy, 2025), y en la organización de los sistemas de salud, al identificar a quienes requieren atención más urgente (Porto, 2024). Estos usos no son los únicos y es importante destacar que tampoco se limitan al personal de salud, pues cada vez hay más herramientas dirigidas directamente a pacientes y al público en general (Lee, Goldberg & Kohane, 2023). Por lo tanto, su presencia es cada día más común y se espera que lo sea aún más en el corto plazo.


 
Ilustración: Monserrat García Silva

DOS RIESGOS PRINCIPALES QUE LA IA PUEDE CONLLEVAR EN EL ÁMBITO DE LA SALUD: LA BRECHA TECNOLÓGICA Y LOS SESGOS O LAS FORMAS DE DISCRIMINACIÓN ALGORÍTMICA

¿QUÉ PROBLEMAS PUEDE GENERAR SU USO INDISCRIMINADO?
Al igual que cualquier innovación tecnológica, sus beneficios pueden ir acompañados de riesgos importantes, sobre todo si se adopta sin comprender sus limitaciones básicas (OMS, 2021a). A nivel individual existe el riesgo de sobreestimar la capacidad de la IA en tareas como diagnósticos o recomendaciones médicas, lo que podría retrasar la atención profesional o dar lugar a indicaciones inadecuadas. También preocupa la continua recolección de datos personales por parte de muchas tecnologías y la incertidumbre sobre la seguridad de la información a largo plazo. Además de estos problemas, centrándonos en la equidad, queremos destacar dos riesgos principales que la IA puede conllevar en el ámbito de la salud: la brecha tecnológica y los sesgos o las formas de discriminación algorítmica.

La denominada brecha digital se refiere a las diferencias en el acceso y uso de las tecnologías de la información entre grupos, ya sea entre países o entre sectores de una misma población (OMS, 2021a). En la práctica esto implica que mientras algunas personas pueden beneficiarse de sistemas de IA avanzados, otras —por falta de infraestructura, entrenamiento, personal capacitado u otras carencias estructurales— quedan limitadas o incluso excluidas, lo que puede agravar las desigualdades existentes en el ámbito de la salud. Un ejemplo de esta problemática es el edadismo y su relación con la IA. La OMS lo define como los estereotipos, prejuicios y discriminación hacia las personas en función de su edad. De hecho, la OMS publicó recientemente un informe específico sobre el tema (Ageism in Artificial Intelligence for Health, OMS, 2022) (figura 1), en el que hace un llamado a garantizar que el diseño y la aplicación de estas tecnologías no refuercen la exclusión digital de las personas mayores.

La segunda problemática está relacionada con la presencia de sesgos en los algoritmos y su capacidad para generar, perpetuar e incluso acentuar la discriminación (OMS, 2021a). Estos sesgos pueden surgir de los datos utilizados para entrenar a la IA. Si los datos provienen principalmente de países o sectores con mayores recursos económicos, los algoritmos reflejarán sobre todo las necesidades de esas poblaciones, lo que puede traducirse en resultados menos precisos o incluso erróneos para ciertos colectivos, como las mujeres o las minorías étnicas, y agravar las inequidades preexistentes en el acceso a la atención sanitaria.

Un ejemplo muy citado, aunque fuera del ámbito de la IA, se encuentra en el campo de la nefrología (Eneanya, Yang & Reese, 2019). Cuando un médico desea evaluar la función renal, suele hacerlo a través de cálculos basados en parámetros de laboratorio y características del paciente como la edad y el sexo. Sin embargo, estas fórmulas incluían anteriormente un ajuste por “raza negra” que se sustentaba en datos sesgados que llevaban a una sobreestimación sistemática de la función renal en estas poblaciones, lo que retrasaba los diagnósticos e incluso el acceso a trasplantes. Esto condujo al abandono de esta variable en las fórmulas actuales, pero el caso demuestra con claridad cómo el uso de información sesgada puede aumentar la inequidad en lugar de corregirla.


 
Informe de la OMS sobre edadismo en la inteligencia artificial aplicada a la salud

¿QUÉ RECOMENDACIONES PERMITEN APROVECHAR LOS BENEFICIOS DE LA IA CON EL MENOR RIESGO POSIBLE?
La OMS propuso recientemente seis principios para guiar el uso de la IA en salud:

  1. Proteger la autonomía de las personas y su derecho a decidir sobre su atención (es importante que los pacientes siempre tengan la opción de aceptar o rechazar las recomendaciones generadas por un sistema de IA).
  2. Promover el bienestar, la seguridad y el interés público (por ejemplo, garantizando que los algoritmos se validen antes de su uso clínico para evitar daños).
  3. Garantizar la transparencia y la comprensibilidad de los sistemas (explicar de manera sencilla cómo se llegó a un diagnóstico o pronóstico).
  4. Fomentar la responsabilidad y la rendición de cuentas (definir claramente quién es responsable en caso de que una recomendación automatizada cause un error médico).
  5. Asegurar la inclusión y la equidad en su desarrollo y aplicación (incorporar datos de mujeres, personas mayores y minorías para evitar sesgos en los resultados).
  6. Promover tecnologías receptivas y sostenibles que puedan supervisarse, actualizarse y adaptarse con el tiempo, considerando también su impacto ambiental

Estos lineamientos nos ofrecen un marco práctico cuyo objetivo no es frenar la innovación ni limitar el uso de estas tecnologías, sino servir como guía para aprovechar las oportunidades que ofrece la IA en el ámbito de la salud de manera segura, equitativa y sostenible.

SI LOS DATOS PROVIENEN PRINCIPALMENTE DE PAÍSES O SECTORES CON MAYORES RECURSOS ECONÓMICOS, LOS ALGORITMOS REFLEJARÁN SOBRE TODO LAS NECESIDADES DE ESAS POBLACIONES

CONCLUSIONES
La IA es una de las innovaciones más prometedoras en el ámbito de la salud en la actualidad. Sus aplicaciones, que abarcan todo el proceso de atención, tienen el potencial de transformar la medicina tal como la conocemos. Sin embargo, no deben subestimarse los riesgos asociados con su uso, con especial énfasis en la brecha digital y los sesgos algorítmicos. En este sentido, la OMS propone una serie de principios para orientar un uso responsable de estas tecnologías, los cuales no buscan retrasar su implementación, sino servir como una llave de seguridad que permita aprovechar al máximo sus beneficios y reducir sus riesgos.
Edgar Ortiz Brizuela es médico cirujano egresado de la Facultad de Medicina de la UASLP, con especialidad en medicina interna e infectología por el Instituto Nacional de Ciencias Médicas y Nutrición Salvador Zubirán. Obtuvo una maestría en ciencias médicas en la UNAM, una maestría en epidemiología en la Universidad McGill y es candidato a doctor en epidemiología por la misma universidad. Dirige la Unidad de Investigación en Salud en el Trabajo del IMSS en el CMN Siglo XXI e imparte la materia de Introducción a la Inferencia Causal en las Ciencias de la Salud en la Maestría en Ciencias Médicas de la UNAM.

Bruno Ali López Luis es especialista en medicina interna y en enfermedades infecciosas en el Centro Médico Nacional 20 de Noviembre del ISSSTE, en la Ciudad de México, donde se desempeña como jefe del departamento y responsable del programa de uso racional de antibióticos. Ha participado activamente en la formación de recursos humanos y en investigación clínica. Sus líneas de trabajo abarcan el tratamiento y la prevención de infecciones en pacientes inmunocomprometidos, así como la resistencia a los antimicrobianos.


Referencias
Abiteboul, Serge & Dowek, Gilles (2020). The Age of Algorithms. Cambridge University Press. https://doi.org/10.1017/9781108614139.

Baxt, William G. (1991). “Use of an artificial neural network for the diagnosis of myocardial infarction.” Ann Intern Med 115(11). https://doi.org/10.7326/0003-4819-115-11-843.

Eneanya, Nwamaka Denise; Yang, Wei & Reese, Peter Philip (2019). “Reconsidering the Consequences of Using Race to Estimate Kidney Function.” JAMA 322(2). https://doi.org/10.1001/jama.2019.5774.

Gavero, Gretchenjan C. & Guerrero, Anthony P. S. (2017). “My Teacher Baymax: Lessons from the Film Big Hero 6.” Acad Psychiatry 41(5). https://doi.org/10.1007/s40596-017-0803-4.

Kant, Shashi; Deepika & Roy, Saheli (2025). “Artificial intelligence in drug discovery and development: transforming challenges into opportunities.” Discover Pharmaceutical Sciences 1(1). https://doi.org/10.1007/s44395-025-00007-3.

Kaul, Vivek; Enslin, Sarah & Gross, Seth A. (2020). “History of artificial intelligence in medicine.” Gastrointest Endosc 92(4). https://doi.org/10.1016/j.gie.2020.06.040.

Lee, Peter; Goldberg, Carey & Kohane, Isaac (2023). The AI Revolution in Medicine: GPT-4 and Beyond. Pearson Education.

Miller, Randolph A.; Pople, Harry E. Jr. & Myers, Jack D. (1982). “Internist-1, an experimental computer-based diagnostic consultant for general internal medicine.” N Engl J Med 307(8). https://doi.org/10.1056/NEJM198208193070803.

OMS (Organización Mundial de la Salud, 2021a). Ethics and governance of artificial intelligence for health: WHO guidance.” Geneva: World Health Organization.

OMS (2021b). “La OMS publica el primer informe mundial sobre inteligencia artificial (IA) aplicada a la salud y seis principios rectores relativos a su concepción y utilización.” https://www.who.int/es/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its-design-and-use.

OMS (2022). Ageism in artificial intelligence for health: WHO policy brief. Geneva: World Health Organization.

Porto, Bruno Matos (2024). “Improving triage performance in emergency departments using machine learning and natural language processing: a systematic review.” BMC Emergency Medicine 24(1). https://doi.org/10.1186/s12873-024-01135-2.

Rajpurkar, Pranav; Irvin, Jeremy; Ball, Robyn L.; Zhu, Kaylie; Yang, Brandon; Mehta, Hershel Duan, Tony; … & Lungren, Matthew P. (2018). “Deep learning for chest radiograph diagnosis: A retrospective comparison of the CheXNeXt algorithm to practicing radiologists.” PLoS Med 15(11). https://doi.org/10.1371/journal.pmed.1002686.
Número actual
Compartir:
   
Números anteriores
Ver más
Sin categoria (1)
Encuadre (10)
Entrevista (4)
Entérate (7)
Experiencias (4)
Enfoque (1)