
INFORME ESPECIAL
La transformación que ya llegó y los desafíos que nos esperan
Inteligencia Artificial y Salud
Una mirada desde la realidad cordobesa

Hace apenas una década, hablar de inteligencia artificial en el consultorio médico sonaba a ciencia ficción. Hoy, esa conversación dejó de ser teórica para convertirse en una realidad que avanza a una velocidad que desafía incluso a los más entusiastas. La inteligencia artificial —IA, como la conocemos en la jerga— ya no es solo un tema de congresos y papers académicos: está entrando en los hospitales, en los centros de salud y, poco a poco, en la relación cotidiana entre el médico y su paciente. Y lo hace de maneras que, hasta hace muy poco, parecían reservadas para películas de Hollywood o para laboratorios de Silicon Valley.

Dr. Enrique Majul
Comisión de Innovación y Nuevas Tecnologías. Consejo de Médicos de la Provincia de Córdoba
Desde Córdoba, esta transformación adquiere matices propios. Nuestra provincia tiene una tradición médica y universitaria de primer nivel, con instituciones que históricamente han sido pioneras en la adopción de nuevas tecnologías. Pero también tiene las limitaciones propias de un sistema de salud que debe atender realidades muy diversas: desde la alta complejidad de los grandes centros urbanos hasta la atención primaria en localidades del interior, donde los recursos son más escasos y la conectividad, un desafío persistente. Esa dualidad nos obliga a pensar la IA no solo desde la fascinación tecnológica, sino desde la responsabilidad de quienes tenemos que garantizar atención de calidad para todos.
Abordar este tema en profundidad no es tarea sencilla, porque la IA en salud es un universo en expansión permanente. Lo que hoy es novedad, mañana puede ser estándar. Lo que intentaré en estas páginas es combinar lo que dice la evidencia internacional más reciente —apoyándome en publicaciones del International Journal of Medical Informatics y en el análisis de la Asociación de Médicos y Titulados Superiores de Madrid— con lo que observo y vivo en nuestro entorno asistencial cordobés. Una mirada que no pretende ser exhaustiva, pero sí honesta y comprometida con el debate que nos debemos como comunidad médica.
La magnitud del cambio: cifras que hablan
Para dimensionar de qué estamos hablando, conviene arrancar por los números. Según datos de Precedence Research, el mercado global de inteligencia artificial aplicada al sector salud alcanzó los 36.960 millones de dólares en 2025, con proyecciones que estiman un crecimiento hasta los 613.810 millones para 2034. Estamos ante una de las áreas de mayor expansión tecnológica a nivel mundial, y la salud está en el centro de esa revolución. No se trata de una moda pasajera: los grandes sistemas de salud, las farmacéuticas, las aseguradoras y los gobiernos están invirtiendo cantidades sin precedentes en estas tecnologías.
Pero más allá de las cifras de mercado, lo que importa es el impacto concreto en la práctica diaria. La literatura científica internacional viene acumulando evidencia sólida sobre cómo la IA está transformando distintas dimensiones de la práctica médica. Un estudio publicado en el International Journal of Medical Informatics —una de las revistas de referencia en informática médica, editada por Elsevier y vinculada a la Federación Europea de Informática Médica— analiza precisamente cómo estas tecnologías están reconfigurando los flujos de trabajo clínico, la documentación médica y la relación con el paciente. Los hallazgos son contundentes: las herramientas de IA, particularmente las basadas en inteligencia ambiental, están demostrando capacidad para reducir significativamente la carga administrativa del médico, mejorar la calidad de los registros clínicos y liberar tiempo para lo que realmente importa: la atención directa.
La documentación clínica: el cuello de botella que la IA puede destrabar
Cualquier colega que trabaje en atención clínica sabe de qué hablo cuando menciono la carga burocrática. Las historias clínicas electrónicas, que llegaron para mejorar la trazabilidad y la calidad del registro, terminaron generando un efecto paradójico: los médicos pasamos más tiempo frente a la pantalla que frente al paciente. Los estudios internacionales son elocuentes al respecto: un médico promedio dedica apenas el 12% de su tiempo al contacto directo con el paciente hospitalizado. El resto se lo llevan las notas de evolución, los pedidos de laboratorio e imágenes, las recetas, las interconsultas, los informes de alta, la carga de datos en múltiples sistemas. Es una realidad que conocemos bien en Córdoba y que genera frustración en colegas de todas las especialidades.
Aquí es donde la inteligencia artificial ambiental —lo que en inglés llaman ambient clinical intelligence— aparece como una herramienta genuinamente transformadora. Se trata de sistemas que, mediante procesamiento de lenguaje natural y reconocimiento de voz, pueden escuchar la conversación entre médico y paciente durante la consulta, generar un borrador de la nota clínica y organizar la información relevante, todo en tiempo real y de manera no intrusiva. El profesional luego revisa, ajusta lo que considere necesario y aprueba. El resultado es claro: menos tiempo frente a la computadora, más tiempo con la persona que vino a buscar ayuda.
La evidencia reciente sobre estas herramientas es notable y merece que nos detengamos en ella. Un ensayo clínico aleatorizado publicado en 2025, que evaluó dos plataformas de escribas con IA ambiental en múltiples centros de salud, encontró que el tiempo dedicado a la documentación clínica se redujo significativamente con ambas tecnologías. Pero quizás el dato más relevante no fue la ganancia en eficiencia: fue el impacto sobre el bienestar del profesional. El burnout entre los médicos que usaron estas herramientas bajó del 51,9% al 38,8% en apenas 30 días de uso. En el sistema de Mass General Brigham —uno de los más grandes de Estados Unidos—, la prevalencia de burnout se redujo un 21,2% en 84 días, mientras que en Emory Healthcare el bienestar relacionado con la documentación aumentó un 30,7%. Los participantes también reportaron menor carga cognitiva, menos documentación fuera del horario laboral y una mejor capacidad de mantener la atención centrada en el paciente durante la consulta.
Estos números son poderosos porque tocan un nervio sensible de nuestra profesión. El síndrome de burnout no es un problema menor ni lejano: afecta la calidad de la atención, la seguridad del paciente y la salud física y mental del propio profesional. En Argentina, las cifras de agotamiento profesional médico son preocupantes, y cualquier tecnología que pueda contribuir a revertir esa tendencia merece nuestra atención seria y nuestro análisis riguroso.
Más allá de la documentación: diagnóstico, predicción y personalización
La documentación clínica es solo una de las aristas de esta transformación. La IA en salud abarca un espectro mucho más amplio que incluye el apoyo diagnóstico —especialmente en imágenes médicas, donde los algoritmos ya alcanzan niveles de precisión comparables o superiores al ojo humano en ciertas patologías como la retinopatía diabética o el cáncer de piel—, la predicción de eventos adversos en pacientes hospitalizados, la optimización de flujos hospitalarios, la personalización de tratamientos y el soporte a la toma de decisiones clínicas en tiempo real.
En la atención primaria, que es donde se resuelve la mayor parte de los problemas de salud de la población, el potencial es enorme. La IA puede ayudar al médico de familia a detectar patrones que escapan al análisis manual, a priorizar pacientes según niveles de riesgo, a optimizar la prescripción farmacológica considerando interacciones y comorbilidades, y a gestionar mejor las derivaciones al segundo nivel. No se trata de reemplazar el juicio clínico —eso no va a pasar, ni debería—, sino de potenciarlo con herramientas que procesan volúmenes de información que el cerebro humano simplemente no puede manejar solo.
Como señala un análisis reciente de la Asociación de Médicos y Titulados Superiores de Madrid (AMYTS) sobre la transformación de la práctica médica mediante IA, la integración de estas tecnologías en atención primaria no busca sustituir al profesional, sino dotarlo de herramientas potentes, seguras y basadas en evidencia para mejorar la atención. Se avanza hacia una historia clínica inteligente, capaz de automatizar procesos repetitivos, personalizar la atención según el perfil del paciente y anticipar eventos adversos antes de que se manifiesten clínicamente. Los sistemas de IA pueden extraer datos clave para automatizar la generación de documentación, optimizar la gestión administrativa y facilitar tareas burocráticas que hoy consumen una porción desproporcionada del tiempo del profesional, liberándolo para lo que realmente sabe hacer: cuidar personas.
La mirada desde Córdoba: oportunidades y preguntas
En nuestra provincia, la conversación sobre IA y salud está ganando espacio de manera progresiva. Iniciativas como el concepto de Smart Hospital, que se viene discutiendo en diversos ámbitos institucionales cordobeses, apuntan a integrar tecnologías inteligentes en la gestión hospitalaria, desde la logística de turnos hasta el soporte diagnóstico. Nuestras universidades e instituciones de salud —tanto públicas como privadas— están empezando a explorar estas herramientas, aunque con la cautela que el tema merece y que es saludable mantener.
El Consejo de Médicos de la Provincia de Córdoba ha sido prudente en su posición, y creo que con razón: la inteligencia artificial no es la solución para todos los problemas, y hasta el momento no estamos ante una panacea. Es una herramienta, no un fin en sí mismo. Y como toda herramienta poderosa, requiere regulación, formación adecuada y reflexión ética profunda antes de su implementación masiva.
Las preguntas que se disparan son muchas y legítimas: ¿Quién es responsable cuando un algoritmo comete un error diagnóstico o terapéutico? ¿Cómo garantizamos la privacidad y la seguridad de los datos de nuestros pacientes en un ecosistema digital cada vez más interconectado? ¿Qué pasa con la equidad en el acceso cuando estas tecnologías requieren infraestructura, conectividad y capacitación que no todos los centros de salud de la provincia tienen? ¿Cómo formamos a las nuevas generaciones de médicos para que integren estas herramientas sin perder el arte clínico, esa capacidad irreemplazable de observar, escuchar y tocar que ninguna máquina puede replicar?
El marco ético: una brújula imprescindible
Precisamente porque el avance es vertiginoso, el marco ético no puede quedar relegado a un segundo plano. Los principios que deben guiar la implementación de IA en salud son claros y hay amplio consenso internacional al respecto: equidad, transparencia, explicabilidad, no discriminación, autonomía del paciente y responsabilidad clara en la toma de decisiones.
Transparencia significa que el médico y el paciente deben poder entender, al menos en términos generales, cómo llega la máquina a sus conclusiones o recomendaciones. Explicabilidad implica que los algoritmos no pueden ser cajas negras impenetrables cuyas decisiones nadie pueda justificar. Equidad exige que estas tecnologías no reproduzcan ni amplifiquen los sesgos que ya existen en los datos con los que se entrenan —un riesgo real y documentado, especialmente cuando los conjuntos de datos de entrenamiento no representan adecuadamente a poblaciones diversas—. Y autonomía del paciente supone que la persona siempre tenga la última palabra sobre su salud, informada y asistida por la tecnología pero jamás sometida a ella.
En Argentina, el marco regulatorio en materia de IA y salud está todavía en construcción. La Academia Nacional de Medicina de Buenos Aires viene trabajando activamente en esta agenda, y distintas instituciones están generando espacios de diálogo entre profesionales de la salud, tecnólogos, juristas y bioeticistas. Pero falta mucho camino por recorrer. Necesitamos normativas claras que establezcan estándares de validación para los algoritmos que se usen en el ámbito sanitario, protocolos de responsabilidad profesional adaptados a esta nueva realidad, mecanismos de vigilancia post comercialización y, fundamentalmente, procesos de consentimiento informado que contemplen el uso de herramientas de IA en la atención.
¿Qué se viene? Tendencias que marcarán los próximos años
Si tuviera que arriesgar una mirada prospectiva, diría que los próximos años van a estar marcados por varias tendencias convergentes.
En primer lugar, la expansión de la IA ambiental en la documentación clínica. Lo que hoy es piloto en grandes sistemas de salud de Estados Unidos y Europa, en pocos años será herramienta estándar en hospitales y consultorios de todo el mundo. Ya hay más de 3.000 médicos usando estas tecnologías de manera rutinaria solo en el sistema de Mass General Brigham, y la tendencia es claramente hacia la universalización.
En segundo lugar, la integración de modelos de lenguaje de gran escala —los famosos large language models, como los que están detrás de herramientas como ChatGPT— en los sistemas de historia clínica electrónica. Estos modelos, entrenados con volúmenes masivos de literatura médica, podrán asistir al profesional en el análisis de casos complejos, sugerir diagnósticos diferenciales basados en la mejor evidencia disponible y alertar sobre interacciones farmacológicas o conductas de riesgo que podrían pasar inadvertidas.
En tercer lugar, el desarrollo de los llamados gemelos digitales del paciente. Se trata de modelos computacionales que replican las condiciones fisiológicas de una persona, permitiendo simular el efecto de distintos tratamientos antes de aplicarlos en el cuerpo real. Suena futurista, pero la tecnología ya existe y se está probando en centros de referencia internacionales con resultados prometedores.
Y en cuarto lugar, la telemedicina potenciada por IA. La pandemia aceleró enormemente la adopción de la atención remota, y la inteligencia artificial puede convertirla en algo mucho más sofisticado que una videollamada.
Sistemas de triaje automatizado que orientan al paciente antes de la consulta, monitoreo remoto de pacientes crónicos mediante dispositivos inteligentes, alertas tempranas generadas por algoritmos predictivos: todo esto ya está en fase de implementación en distintas partes del mundo y llegará, más temprano que tarde, a nuestra región.
Córdoba y el desafío de no quedarse afuera
Llegados a este punto, la pregunta central es cómo nos posicionamos como comunidad médica cordobesa frente a una transformación que, nos guste o no, ya está en marcha. No se trata de adoptar acríticamente toda tecnología nueva que aparezca en el mercado, pero tampoco podemos darnos el lujo de mirar desde la tribuna mientras colegas de otros países incorporan herramientas que mejoran tanto su práctica clínica como su calidad de vida profesional.
Creo firmemente que Córdoba tiene las condiciones para ser protagonista y no mera espectadora de este proceso. Contamos con universidades de larga tradición en investigación biomédica, un ecosistema de salud diverso que integra instituciones públicas y privadas de alta complejidad, profesionales formados con excelente nivel técnico y una cultura de innovación que se expresa en múltiples ámbitos de la vida provincial. Lo que falta, quizás, es articular mejor esos recursos: generar espacios de investigación aplicada en IA y salud, incorporar competencias digitales en la formación de grado y posgrado, y construir marcos normativos que acompañen la innovación sin frenarla innecesariamente.
En ese camino, el rol de instituciones como el Consejo de Médicos y de espacios de reflexión como esta Revista Ethica resulta insustituible. Necesitamos ámbitos donde la evidencia científica más actualizada dialogue con la experiencia clínica local y con los valores éticos que sostienen nuestra profesión desde siempre. Ni tecnofobia ni tecnofilia acrítica: lo que necesitamos es pensamiento riguroso, debate informado y compromiso firme con la salud de nuestra gente.
A modo de cierre
La inteligencia artificial no va a reemplazar al médico. Pero el médico que use inteligencia artificial probablemente tenga ventajas significativas sobre el que no la use. No porque la máquina sea más inteligente, sino porque puede procesar, organizar y presentar información a una escala y velocidad que el cerebro humano no alcanza. La clave está en cómo integramos esa capacidad en una práctica médica que siga siendo profundamente humana, empática y centrada en la persona que sufre y necesita ayuda.
Desde Córdoba, tenemos la oportunidad —y yo diría la responsabilidad— de participar activamente en esta conversación global que está redefiniendo la medicina del siglo XXI. No como espectadores pasivos, sino como protagonistas que aportan su experiencia, su mirada crítica y su compromiso con una medicina mejor para todos. El futuro no espera, pero tampoco nos obliga a correr sin pensar. El desafío es avanzar con convicción y con prudencia, con los ojos bien abiertos y los pies firmemente plantados en nuestra tierra.
Referencias
1. International Journal of Medical Informatics (2026). Inteligencia artificial, documentación clínica y transformación de flujos de trabajo en el entorno asistencial.
Elsevier. https://www.sciencedirect.com/science/article/pii/S1386505626001024
2. AMYTS – Entorno Asistencial (2025). La transformación de la práctica médica mediante la inteligencia-la-inteligencia-artificial-impacto-en-la-atencion-primaria-y-el-futuro-de-la-documentacion-clinica
3. A Randomized Clinical Trial of Two Ambient Artificial Intelligence Scribes: Measuring Documentation Efficiency and Physician Burnout (2025). PMC/PubMed.
4. Mass General Brigham / Emory Healthcare (2025). Ambient Documentation Technologies Reduce Physician Burnout.
5. Precedence Research (2025). Global AI in Healthcare Market Report.
6. Academia Nacional de Medicina de Buenos Aires (2025). IA en Medicina y Salud Digital..
OPINIONES
La formación profesional y la IA
El tema es de gran actualidad y puede enfocarse desde distintas visiones. Ethica Digital añade al texto del Dr. Enrique Majul, con mirada cordobesa, dos opiniones de nivel nacional que consideramos valiosas para el análisis de la IA, que subrayan su carácter innovador(1).
La revista Biodots nos trae la opinión del Dr. Enrique Díaz Cantón, referente indiscutido de la oncología y la vanguardia tecnológica, quien afirma que ningún médico debería graduarse sin aprender sobre IA. Como para médicos, piensa que “la Inteligencia Artificial IA) no es el futuro, sino el presente y es preciso incorporarla para aprovechar su aporte innovador. La convicción de que la IA transformaría el mercado laboral en general, pero particularmente revolucionaría la práctica médica, se dedicó de lleno a entenderla y divulgarla.
Tras estudiar de forma autodidacta, en 2020 fundó la cátedra de IA en medicina en el Instituto Universitario CEMIC, considerada una de las primeras de su tipo en una facultad de medicina a nivel mundial. Este hito pionero a nivel global busca garantizar que ningún médico se gradúe sin comprender las herramientas que ya forman parte de su día a día.
Uno de los temas más provocadores la entrevista es el concepto que esboza Díaz Cantón sobre el sedentarismo cognitivo. El uso acrítico de modelos de lenguaje puede reducir la conectividad neuronal vinculada a la creatividad. Sin embargo, él propone una visión superadora: la IA como un copiloto, que obliga al médico a estudiar más. El profesional deja de ser solo un ejecutor para convertirse en un auditor y editor de información, validando cada sugerencia del algoritmo con su juicio clínico y evidencia científica.
Díaz Cantón explica que el volumen de información médica actual (con miles de papers publicados diariamente) hace imposible que un humano se mantenga actualizado de forma aislada. Aquí es donde entran los modelos especializados —como Marco o GPTs oncológicos—, que utilizan técnicas de "mezcla de expertos" para reducir errores y alucinaciones, enfocando el procesamiento exclusivamente en el área de conocimiento requerida.
A la par, vemos que los médicos se han vuelto "especialistas en un solo tipo de tumor". La IA permitiría que los profesionales vuelvan a tener una visión más generalista y actualizada de todas las subespecialidades. Ahora bien, frente al temor de que la IA deshumanice la medicina, Díaz Cantón sostiene que el uso de estas herramientas debería ser un motivo de orgullo y seguridad para el paciente. Un médico asistido por IA es un profesional con menor margen de error y mayor capacidad de respuesta ante casos complejos. De hecho, organismos como la American Board of Internal Medicine ya otorgan créditos de educación continua por el uso de plataformas de IA médica, jerarquizando la práctica de quienes las adoptan.
1. Fuente: IntraMed
Nuevos escenarios
Responsabilidad médica (mala praxis) en la era de la inteligencia artificial

Imagen SOSALEGAL Abogados
La integración de sistemas basados en IA en la práctica cotidiana plantea desafíos novedosos para la teoría y la aplicación de la responsabilidad profesional médica.
El concepto de mala praxis, utilizado corriente, pero erróneamente, ha de ser aclarado de antemano toda vez que el mismo implica, de suyo, una resolución judicial previa, una sentencia firme que ratifique tal hecho; los juicios donde se discute el accionar médico son para analizar la responsabilidad del profesional. Hablar de mala praxis es entonces, lisa y llanamente, un prejuicio, pero uno que viene a modificarse con el ingreso de nuevas herramientas como la inteligencia artificial (IA).
Por otro lado, es indiscutible que la IA llegó para quedarse y ampliar, cada vez más, sus dominios en el campo sanitario, modificando definitivamente el paradigma de ejercicio profesional imperante durante el siglo XX e inicios del XXI.
Mientras la medicina tradicional ya está estructurada en torno a un estándar de cuidado -y los profesionales responden cuando fallan en cumplirlo-, el uso de IA genera una superposición de actores (médicos, instituciones, desarrolladores de software) y condiciona cómo se atribuye responsabilidad ante daños.
Continuidad del deber profesional
El fundamento de la responsabilidad médica en sí mismo permanece inalterado: los médicos tienen un deber fiduciario y profesional hacia sus pacientes, y deben actuar conforme al standard of care correspondiente a su especialidad. Según Cohen et al. (citados en Gerke, Maliha & Cohen, 2021), un médico que se apoya en una recomendación de IA sigue siendo responsable si sus decisiones derivan en un resultado por debajo del estándar esperado (Maliha, Gerke, Cohen & Parikh, 2021). Por tanto, la adopción de IA no exime al profesional de su obligación de verificar, interpretar críticamente y validar las sugerencias algorítmicas.
Nuevas fuentes de litigio
La IA introduce varias fuentes de riesgo que pueden favorecer reclamos de responsabilidad profesional. En particular, los errores pueden surgir por mal uso del sistema, interpretación incorrecta de los resultados, sesgos de datos o fallos técnicos. Tal como señalan estudios recientes, uno de los fenómenos más problemáticos es el automation bias, definido como la tendencia a aceptar pasivamente las salidas generadas por la IA, incluso cuando hay indicios clínicos que deberían motivar escepticismo.
Además, el riesgo legal no solo recae sobre el médico: las instituciones pueden ser responsables bajo teoría de negligencia institucional (corporate negligence) si no implementan controles adecuados, no capacitan al personal o adoptan herramientas no validadas (Leveraging Law & Ethics, 2025). Al mismo tiempo, los desarrolladores de IA podrían asumir responsabilidad bajo teorías de responsabilidad por producto si su algoritmo causa daño.
Desafíos del estándar de cuidado en presencia de IA
La relación entre la IA y el estándar de cuidado evoluciona y aún está poco definida. Según el Research Handbook on Health, AI and the Law, en múltiples jurisdicciones no hay una jurisprudencia clara sobre cómo cambia el standard of care cuando se utiliza IA (NCBI, 2024). En escenarios hipotéticos, si el algoritmo recomienda un tratamiento no estándar y el médico lo sigue, podría aumentar su exposición a demandas si ese tratamiento resulta dañino, pues está adoptando una conducta divergente del consenso clínico.
Un estudio empírico interesante realizado con una muestra representativa de jurados reveló que cuando la IA recomienda el “cuidado estándar”, aceptar esa recomendación reduce la percepción de responsabilidad legal. Pero si la IA sugiere algo no estándar, rechazarla y volver al tratamiento tradicional no brinda necesariamente una protección legal equivalente.
Propuestas para mitigar la responsabilidad
Para responder a estos retos, la literatura ha propuesto varias estrategias:
-
IA explicable: modelos con capacidad de explicar sus decisiones (explainability) pueden facilitar que el médico justifique su uso, y también que se atribuya responsabilidad de forma más transparente (Mello & Guha, 2024).
-
Documentación y consentimiento informado: los médicos deben registrar cómo se utilizó la IA (qué datos ingresó, cómo interpretó la recomendación) y, cuando corresponda, informar al paciente sobre su uso, incluyendo riesgos y limitaciones. Aquí, como derivación, resurge la importancia capital de una adecuada historia clínica donde, como bien señalara Laín Entralgo, esta no ha de ser un mero y frío listado de datos, sino que ha de reflejar el decurso del pensamiento del profesional.
-
Formación continua: tanto los profesionales como las instituciones deben recibir capacitación específica en el manejo crítico de sistemas de IA, para evitar errores de interpretación o exceso de confianza.
-
Regulación y asignación de responsabilidades: es necesario un marco normativo que defina cómo se reparten los riesgos entre médicos, hospitales y desarrolladores. Propuestas recientes sugieren modelos mixtos donde la responsabilidad no sea exclusivamente del médico, sino compartida, especialmente en casos de falla sistémica (Mello & Guha, 2024).
Debate ético y perspectivas
Desde una perspectiva ética, algunos autores advierten sobre la externalización moral: al delegar decisiones en la IA, podría erosionarse el juicio clínico humano y descargarse la responsabilidad en la “caja negra” del algoritmo (Román, Brenner & Andrade, 2024).9 Este fenómeno exige mantener un papel central del médico como agente moral activo y no meramente usuario pasivo de la tecnología, lo que supondría, de suyo, la pérdida de la función médica degradándola a la de simple técnico.
Simultáneamente, existe tanto un imperativo social como científico para aprovechar los beneficios de la IA -mejora en diagnóstico, prevención de errores, medicina personalizada- sin desincentivar el humanismo. Por ello, varios académicos han abogado por nuevos marcos legales que equilibren la seguridad del paciente con la libertad de desarrollar tecnologías disruptivas (Maliha et al., 2021).
Conclusión
El uso de IA en medicina no transforma radicalmente el deber profesional del médico, pero sí complica la estructura tradicional de responsabilidad. Si bien el profesional retiene una obligación ineludible de juicio y verificación, los litigios por responsabilidad profesional deberán contemplar ya no solo la actuación médica, sino también la calidad y supervisión del sistema algorítmico. Para gestionar estos riesgos, resulta esencial adoptar modelos de control claros, promover IA explicable y reforzar la formación médica. De este modo, se puede integrar la IA como una aliada potente, sin diludiluir ni desvincular la responsabilidad profesional.
