Inteligencia Artificial: Anécdotas de un Médico Clínico
Artificial Intelligence: Anecdotes From a Clinical Physician
Autor: Hugo N. Catalano
Departamento de Docencia, Hospital Alemán, Facultad de Medicina, Escuela de Medicina,
Universidad del Salvador, Buenos Aires, Argentina
E-mail: hugo.catalano@usal.edu.ar
Artículo publicado en Revista Medicina (Buenos Aires) ISSN1669-9106MEDICINA(BuenosAires)2025:85:1116-1118
Autorizada la publicación en la Revista Argentina de Quemaduras –RAQ- Volumen 35 Nº 3 2025, por la Revista Medicina (Buenos Aires)
En los últimos años, la inteligencia artificial (IA) ha irrumpido en el campo de la medicina con una mezcla de fascinación, escepticismo y expectativas desmesuradas. Para muchos clínicos formados en el paradigma clásico del interrogatorio, la exploración física y el juicio inductivo, la IA representa tanto una promesa como una incómoda interpelación al juicio clínico tra- dicional. Este artículo no pretende ofrecer una revisión técnica ni exhaustiva del tema.
En cambio, propone una mirada personal y anecdótica desde la práctica clínica cotidiana. Los algoritmos aún tropiezan con la complejidad humana y la incertidumbre que caracteriza la medicina real (1); a través de cuatro escenas cotidianas, planteo cómo la IA puede insertarse en la práctica médica no como sustituto del juicio clínico, sino como una herramienta silenciosa y útil, integrada a la experiencia del profesional.
El electrocardiograma y el silencio útil
Durante una tarde habitual de consultorio, mientras escuchaba a un paciente relatar su historia, me notificaron desde el laboratorio un resultado crítico de otra paciente que había evaluado semanas atrás. Solicité un electrocardiograma en forma inmediata.
A los pocos minutos, mientras continuaba atendiendo, le pedí a la IA (2) una interpretación preliminar del ECG que me envió la paciente.
Aquella lectura, sin desplazarme, sin interrumpir la entrevista, me permitió, cuando pude supervisar lo ofrecido por la IA, confirmar que la situación no representaba una urgencia vital. Fue uno de esos momentos en los que la IA no toma decisiones, pero las facilita.
Dolor en el hipocondrio derecho: IA como espejo clínico
Un amigo médico, que vive en otro país, me cuenta durante una llamada por temas laborales que su hija, joven mujer, tiene un dolor intenso en el hipocondrio derecho. Me describe el caso y me cuenta que han descartado las causas prevalentes en las que habían pensado. En ese momento, consulto con el sistema de IA para obtener diagnósticos diferenciales menos comunes, ajustados por edad y sexo.
Entre las propuestas de la IA, acorde a mi pre- sunción diagnóstica y reforzada por detalles que mi amigo me ofrece, pude integrar la sugerencia de que se trataba de un diagnóstico ginecológico con sintomatología como la referida. A los pocos minutos un llamado desde el hospital, al que consultara la joven días atrás, confirmaba la enfermedad.
No fue la IA quien lo descubrió, pero sí me lo recordó cuando el contexto me lo susurraba.
Un audio de un paciente enviado por WhatsApp
Recibo un audio en el que un paciente joven angustiado relata que había sido sometido a dos ablaciones cardíacas por una arritmia compleja y comenzó a presentar, meses después, episo- dios reiterados de dolor torácico, debilidad general y febrículas. En la primera oportunidad, un médico le indicó corticoides y los síntomas cedieron. En el siguiente episodio, se evidenció un leve derrame pericárdico. Ya con diagnóstico de pericarditis, el cuadro evolucionó hasta requerir drenaje.
En ese contexto, solicité a un sistema de IA un listado de diagnósticos diferenciales frente a pericarditis recurrente postablación en joven sin enfermedad autoinmune conocida. El sistema propuso hipótesis razonables: pericarditis post-procedimiento, inflamatoria, viral, y algunas formas atípicas de respuesta inmune. Aunque no descubrió lo que yo no sabía, me permitió ordenar el razonamiento, priorizar exámenes y evitar sesgos de anclaje.
Mi reflexión clínica: la IA no diagnostica por mí, pero me ayuda a pensar sin omitir.
La lectura crítica que acompaña
Un colega me pide una opinión sobre un artículo que consideraba poco serio (pero extenso) y en la primera lectura que realicé me pareció criticable y quizás necesaria más de una opinión. En lugar de descartar el texto de plano decidí presentarlo a la IA marcándole previamente criterios para una evaluación basada en GRADE (Grading of Recommendations Assessment, Development and Evaluation) (3).
Lo que recibí no fue una sentencia, sino un análisis estructurado, con observaciones sobre el diseño, la calidad de la evidencia y el potencial sesgo.A partir de ese material que me ofreció la IA, pude discutir con mi colega los puntos fuertes y débiles del artículo.
El juicio o dictamen final fue de nuestra autoría, pero la IA había ayudado a pensar con método.
¿Electrocardiograma interpretado en segundo plano: ecos de un cambio real?
La introducción de herramientas de IA en la interpretación del ECG ha sido objeto de múltiples estudios clínicos que demuestran su precisión y utilidad en la clínica diaria. Por ejemplo, un algoritmo de IA integrado al ECG logró una inter- pretación fiable, similar a la de cardiólogos certificados, optimizando tiempos y flujos de trabajo (4).
Otro modelo –DeepRhythmAI– mostró valores predictivos negativos superiores al 99% para la prevalencia de arritmias críticas de la muestra analizada (8.5%), con 17 veces menos falsos negativos que revisores técnicos humanos (5).
Mi reflexión clínica: cuando atiendo a una paciente y en paralelo la IA confirma que el ECG no revela urgencias, estoy aprovechando esa “ausencia de criticidad” para continuar mi tarea sin sobresaltos.
No es una IA que diagnostica; es una IA que permite al clínico focalizarse sin angustia inmediata.
¿Dolor en hipocondrio derecho: la IA como espejo clínico?
Frente a una sintomatología específica, la IA puede ofrecer un listado de diagnósticos diferenciales menos comunes, pero seleccionables según el contexto.
En cuanto al dolor en hipocondrio derecho, los estudios recomiendan considerar patologías biliares, hepáticas, pancreáticas y renales (6).
El uso de la IA como herramienta que compila y prioriza diagnósticos –ajustada según la edad y el sexo del paciente– refuerza al médico clínico sin anular su parecer.
Mi reflexión clínica: la IA operó como un espejo estructurado, que no quiso “enseñar”, sino confirmar y recordar.
¿Pensar sin omitir: la IA como brújula clínica en territorios conocidos?
¿Es posible que la inteligencia artificial nos diga algo que no sepamos? Probablemente no. Pero sí puede ayudarnos a no olvidar lo que sí sabemos. En contextos clínicos complejos, donde el diagnóstico no es incierto por falta de da- tos, sino por exceso de caminos posibles, la IA se comporta como un asistente atento: no se distrae, no se cansa, no se encapricha.
En el caso del joven con pericarditis recurrente, lo más probable era “lo más probable”: una forma post procedimiento, una recaída inflama- toria. Y, sin embargo, al consultar a un sistema de IA, la experiencia clínica se reorganizó: hipótesis olvidadas reaparecieron, se jerarquizaron exámenes, se evitó el automatismo de repetir lo ya hecho. La IA no reemplazó el juicio, pero evitó el atajo del hábito.
Esto, que parece poco, es mucho. Porque uno de los riesgos más subestimados en medicina no es errar, sino pensar por inercia. Y si la IA puede interrumpir esa inercia –no para decidir, sino para hacernos dudar con fundamento– en- tonces su lugar en la clínica está justificado.
Nuestra práctica diaria no exige certezas absolutas, sino buenas preguntas formuladas a tiempo. La IA puede ayudarnos en eso: no a saber más, sino a dudar mejor.
¿Evaluación crítica: IA entrenada en GRADE?
La lectura crítica es una competencia esencial en medicina basada en evidencia. El sistema GRADE es hoy el estándar para valorar la confiabilidad de la evidencia y fuerza de las recomendaciones.
Estudios recientes exploran la automatiza-ción semi-asistida de GRADE usando IA, generando conclusiones similares a las de revisores humanos y facilitando la síntesis de evidencia (7, 8).
Mi reflexión clínica: al pedirle a la IA que evaluara un artículo con GRADE, recibí un análisis estructura- do (riesgos, calidad, sesgo) que potenció mi ejercicio crítico. No definió la conclusión, pero sí proporcionó
herramientas para sostenerla.
Balance crítico y consideraciones éticas
Si bien estos ejemplos muestran cómo la IA puede sumarse sin desplazar al juicio clínico, también hay desafíos:
– Confianza vs. explicabilidad: los profesionales valoran la precisión de la IA, pero alertan sobre la caja negra, la necesidad de trazabilidad, y el riesgo de cuanto dejar de enseñar a futuras generaciones (9).
– Variabilidad de datos reales: las IA pueden ser menos confiables si los datos del mundo real divergen de los utilizados en su entrenamiento. Es fundamental validarlas localmente (10).
– Riesgos de sesgo y mal uso: hay iniciativas que usan IA para cuestionar evidencias ambientales o médicas con fines industriales, potenciando el sesgo o demoras reguladoras en salud pública (11).
Reflexión final
La IA, en estos ejemplos, no reemplaza al médico clínico ni resuelve dilemas éticos ni diag- nostica por sí sola. Su valor reside en el silencio eficaz con el que asiste, en el tiempo que ahorra sin imponer, y en la estructura que ofrece al pensamiento crítico.
En un tiempo donde la medicina corre el riesgo de fragmentarse entre tecnólogos y humanistas, quizás debamos rescatar estos usos cotidianos, pequeños y significativos, donde el conocimiento médico y la tecnología se acompañan sin perder el juicio clínico que da sentido a nuestra práctica.
Estas anécdotas reflejan cómo la IA, en los ejemplos expuestos, puede integrarse al ejercicio de la medicina: no como reina, ni como intrusa, sino como asistente estratégica.
En cada escenario, la IA ahorra tiempo, refuerza análisis y apoya decisiones, sin reemplazar la mirada humana.
Su integración responsable exige verificación local, transparencia algorítmica y vigilancia ética.


