Matemáticas de vida o muerte: por qué el pánico a la inteligencia artificial es un riesgo para la medicina
La discusión pública sobre los fallos de la inteligencia artificial en salud omite un dato clave: el costo histórico de los errores humanos en la medicina.
La inteligencia artificial no es un problema para la medicina, sino cómo se la analiza y que se pone del otro lado de la balanza.
La narrativa mediática de las últimas semanas fue contundente. Tras la aparición de errores visibles en los sistemas de inteligencia artificial, desde recomendaciones dietéticas absurdas hasta confusiones en diagnósticos simples, la reacción pública osciló entre la burla y la alarma. La premisa que se instaló es que si la tecnología no es infalible, no es segura para la medicina.
Sin embargo, este juicio severo esconde una omisión estadística grave. Al centrar el debate exclusivamente en los fallos de la máquina, estamos ignorando la peligrosidad del sistema actual. Para evaluar honestamente el impacto de la IA en la salud, no basta con mirar sus errores; hay que compararlos con el costo, a menudo invisible, de la falibilidad humana.
Para entender la magnitud del problema, debemos establecer una línea base. La medicina moderna, a pesar de sus avances, depende del factor humano, y este es biológicamente propenso al error. En Estados Unidos, los estudios de seguridad del paciente arrojaron una cifra que debería ser escándalo nacional: la negligencia médica se sitúa como la tercera causa de muerte, superada únicamente por las enfermedades cardíacas y el cáncer.
Se estima que unas 250.000 personas fallecen cada año debido a errores evitables. No se trata de incompetencia deliberada, sino de límites fisiológicos. La fatiga, los sesgos cognitivos, la falta de sueño en guardias de 24 horas y la incapacidad de procesar historiales clínicos masivos en minutos son factores que llevan al médico promedio a cometer errores letales. Este es el estándar real con el que convivimos con un sistema que acepta un cuarto de millón de muertes anuales como "parte del proceso".
Frente a este escenario, la irrupción de la inteligencia artificial en los hospitales presenta un cambio de paradigma verificable. Más allá de las anécdotas sobre chatbots confundidos, los datos clínicos consolidados entre 2024 y 2025 muestran una mejora sustancial en la seguridad del paciente.
El impacto se mide en tres áreas críticas. Primero, la precisión diagnóstica, donde el error más común en medicina es el "falso negativo", es decir, no ver una enfermedad que sí existe. La implementación de algoritmos de inteligencia artificial como herramienta de segunda opinión en radiología y patología demostró una reducción del 47% en los errores de diagnóstico. Esto implica que casi la mitad de los fallos de detección temprana, esos que marcan la diferencia entre la vida y la muerte en un cáncer, se evitan gracias al respaldo digital.
De igual manera, en el campo de la cirugía, la asistencia robótica guiada por inteligencia artificial redujo las complicaciones técnicas en un 62%. La máquina, carente de temblor o cansancio, aporta una precisión milimétrica que el cirujano humano utiliza para minimizar daños en tejidos sanos. A esto se suman los sistemas de monitoreo predictivo en cuidados intensivos, que identifican cuadros de sepsis y deterioro cardíaco horas antes que el personal de enfermería, permitiendo intervenciones preventivas que antes eran imposibles.
Si la evidencia es tan favorable, ¿a qué se debe la resistencia? Nos enfrentamos a un problema de expectativas asimétricas. La sociedad exige a la tecnología una tasa de error del 0%, mientras que al profesional humano se le perdona el error constante bajo el aforismo de que "errar es humano". Es lo que podríamos llamar la "falacia de la calculadora", ya que si una calculadora falla en una sola operación, la consideramos inservible. Pero la medicina no es aritmética pura, sino que es gestión de riesgos. Si una inteligencia artificial comete errores en un porcentaje marginal de casos, pero su uso sistémico corrige el 47% de los diagnósticos fallidos y evita el 62% de las complicaciones quirúrgicas, el balance neto es abrumadoramente positivo.
Rechazar estas herramientas porque "a veces se equivocan" implica aceptar el costo de oportunidad de no corregir los miles de errores humanos que ocurren a diario. La discusión no debe centrarse en si la inteligencia artificial es perfecta, porque no lo es.
La pregunta relevante para la salud pública es si la inteligencia artificial es más segura que un ser humano fatigado y falible. Los números indican que la combinación de médico y algoritmo es infinitamente superior al médico actuando en solitario. Frenar la adopción de estas tecnologías por miedo a la novedad no es un acto de precaución; es validar la continuidad de una estadística de mortalidad que, por primera vez en la historia, tenemos la capacidad de reducir drásticamente.
Las cosas como son
*Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.