• JUEVES 30
  • de abril de 2026

Derecho

FOTOGRAFIA
DERECHO

Suplemento Jurídica: inteligencia artificial en salud, retos y privacidad médica

POR UN MARCO NORMATIVO ESPECÍFICO

Las ventajas de la IA en salud son sustanciales. En diagnóstico médico, los algoritmos de aprendizaje profundo han demostrado capacidad para identificar patologías con precisión comparable o superior a la de especialistas humanos, particularmente en radiología y patología. Los sistemas de IA pueden analizar miles de imágenes médicas en minutos, detectando patrones sutiles que podrían pasar desapercibidos al ojo humano.


En el ámbito de la medicina predictiva, la IA permite analizar grandes volúmenes de datos para identificar factores de riesgo y predecir brotes de enfermedades. Durante la pandemia del covid-19, estos sistemas demostraron su valor al predecir picos de contagio y optimizar la asignación de recursos hospitalarios.

La personalización del tratamiento representa otra ventaja significativa. Los algoritmos pueden analizar el perfil genético, historial médico y factores ambientales para recomendar tratamientos más efectivos y personalizados. Esta capacidad es particularmente valiosa en oncología, en que la respuesta al tratamiento varía significativamente entre pacientes.

Sin embargo, estos beneficios vienen acompañados de desafíos técnicos y éticos significativos. La calidad y representatividad de los datos de entrenamiento es crucial. Los sesgos en estos datos pueden perpetuar o amplificar disparidades existentes en la atención médica. Por ejemplo, si los algoritmos se entrenan principalmente con datos de ciertos grupos demográficos, su precisión puede verse comprometida al aplicarse a poblaciones subrepresentadas.

La privacidad y la seguridad de los datos médicos constituyen otro desafío fundamental. La efectividad de los sistemas de IA depende del acceso a grandes volúmenes de datos sensibles, lo que aumenta los riesgos de violaciones de privacidad. La implementación de medidas robustas de
protección de datos es esencial, pero debe equilibrarse con la necesidad de acceso para investigación y desarrollo.

La privacidad y seguridad de los datos médicos constituye otro desafío fundamental. Si bien la Ley N° 29733 de Protección de Datos Personales establece un marco general, resulta insuficiente para abordar las complejidades específicas del uso de IA en salud. La efectividad de los sistemas de IA depende del acceso a grandes volúmenes de datos sensibles, lo que aumenta los riesgos de violaciones de privacidad.

Los retos éticos son particularmente complejos en el contexto peruano. La transparencia y explicabilidad de las decisiones algorítmicas es crucial en medicina, donde las consecuencias pueden ser vitales. Los médicos y pacientes necesitan comprender cómo y por qué un sistema
de IA llega a determinadas conclusiones, especialmente cuando estas influyen en decisiones críticas de tratamiento. La Ley N° 30024 del Registro Nacional de Historias Clínicas Electrónicas proporciona cierta base para la gestión de información médica digital, pero no aborda específicamente los desafíos de la IA.

La autonomía del paciente y el consentimiento informado adquieren nuevas dimensiones. ¿Cómo asegurar que los pacientes comprendan y puedan consentir informadamente al uso de sistemas de IA en su atención médica? La complejidad de estos sistemas puede hacer que la explicación de sus beneficios y riesgos sea particularmente desafiante.

La responsabilidad profesional también debe reconsiderarse. ¿Quién es responsable cuando un sistema de IA comete un error? La determinación de responsabilidades entre desarrolladores, instituciones médicas y profesionales de salud requiere marcos legales y éticos claros que aún están en desarrollo. Actualmente existe un vacío legal respecto a la determinación de responsabilidades entre desarrolladores, instituciones médicas y profesionales de salud cuando se producen errores en sistemas de IA. Se necesita establecer criterios claros de certificación y validación de sistemas de IA en salud, así como mecanismos de
compensación por daños.

La equidad en el acceso a tecnologías basadas en IA es otro aspecto crítico. Existe el riesgo de que estas innovaciones amplíen las brechas existentes en el acceso a servicios de salud, creando una “brecha digital” en la atención médica entre quienes tienen acceso a estas tecnologías y quienes no.

Mirando hacia el futuro, es crucial desarrollar marcos regulatorios que promuevan la innovación mientras protegen los derechos de los pacientes. Estos marcos deben ser lo suficientemente flexibles para adaptarse a la rápida evolución tecnológica, pero robustos en la protección de
principios éticos fundamentales.

La formación de profesionales de salud también debe evolucionar para incluir competencias en IA y ética digital. Los médicos necesitan comprender tanto las capacidades como las limitaciones de estos sistemas para utilizarlos efectivamente y mantener el juicio clínico crítico. 

La falta de regulación específica podría resultar en implementación insegura de sistemas de IA, vulneración de derechos de pacientes, responsabilidades legales indefinidas y barreras para la innovación responsable. El objetivo debe ser el aprovechamiento de estas tecnologías para mejorar la calidad y accesibilidad de la atención médica mientras se protegen los derechos fundamentales de los pacientes y se mantiene la humanización de la medicina, todo ello respaldado por un marco normativo sólido y específico. 

Lea también en El Peruano: