La Creación de Comités de Ética Específicos para IA e IoMT en Salud: Un Marco Estratégico Fundamental para la Implementación Ética y Legal de Tecnologías Médicas
Los avances exponenciales en inteligencia artificial (IA) e Internet de las Cosas Médicas (IoMT) están transformando radicalmente el panorama sanitario global, creando oportunidades sin precedentes para mejorar la calidad, eficiencia y personalización de la atención médica. Sin embargo, esta revolución tecnológica conlleva desafíos éticos, legales y regulatorios complejos que requieren marcos de gobernanza específicos y robustos. La propuesta de establecer comités de ética especializados para IA e IoMT emerge como una recomendación estratégica fundamental, respaldada por evidencia científica internacional y marcos regulatorios emergentes que reconocen la necesidad crítica de supervisión ética especializada en el desarrollo e implementación de estas tecnologías disruptivas.

Marco Conceptual y Justificación Estratégica
Transformación Digital en Salud y Necesidad de Supervisión Ética
La integración de IA e IoMT en el sector sanitario representa una de las transformaciones más significativas en la historia de la medicina moderna123. Estos sistemas pueden analizar volúmenes masivos de datos clínicos en tiempo real, personalizar tratamientos, predecir complicaciones médicas y optimizar la gestión de recursos hospitalarios45678. Sin embargo, la implementación de estas tecnologías sin marcos éticos adecuados puede generar consecuencias adversas significativas, incluyendo sesgos algorítmicos que perpetúan desigualdades en salud, violaciones de privacidad de datos sensibles, y erosión de la confianza en el sistema sanitario91011121314.
Los comités de ética específicos para IA e IoMT representan una evolución necesaria de los marcos tradicionales de bioética, adaptándose a las complejidades únicas de las tecnologías digitales de salud1516172. Estos comités no solo proporcionan supervisión reactiva, sino que establecen marcos proactivos para identificar, evaluar y mitigar riesgos éticos antes de que se materialicen en daños a pacientes o comunidades181920.
Evidencia Internacional y Marcos Regulatorios Emergentes
La necesidad de supervisión ética especializada para IA en salud está siendo reconocida globalmente por organizaciones internacionales y reguladores nacionales321. La Organización Mundial de la Salud ha desarrollado directrices específicas que identifican seis principios consensuados para garantizar que la IA funcione en beneficio público: transparencia, responsabilidad, inclusión, sensibilidad, equidad y sostenibilidad3. La Unión Europea, a través del AI Act, clasifica los sistemas de IA médica como de «alto riesgo», requiriendo evaluaciones rigurosas de conformidad, documentación técnica detallada y supervisión humana continua222324.
En España, la creación de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) y el desarrollo del borrador de Ley de IA española reflejan el reconocimiento gubernamental de la necesidad de marcos regulatorios específicos para tecnologías de IA25. Estos desarrollos normativos subrayan la importancia de establecer estructuras de gobernanza que puedan adaptarse a la evolución rápida de las tecnologías de IA mientras mantienen estándares éticos rigurosos261427.
Composición y Estructura del Comité de Ética
Enfoque Multidisciplinario Integral
La efectividad de un comité de ética para IA e IoMT depende fundamentalmente de su composición multidisciplinaria, que debe integrar perspectivas clínicas, tecnológicas, éticas, legales y sociales1820. Esta diversidad de experticia es esencial para abordar la complejidad inherente de las tecnologías de IA médica, que intersectan múltiples dominios de conocimiento y afectan diversos aspectos del cuidado de la salud.
La investigación en bioética aplicada a IA sugiere que los comités más efectivos incluyen al menos seis categorías de miembros especializados192829: profesionales sanitarios con experiencia clínica directa, expertos en tecnología con conocimientos profundos en IA y análisis de datos, especialistas en bioética y filosofía moral, profesionales jurídicos con expertise en derecho sanitario y protección de datos, representantes de pacientes y comunidades afectadas, y especialistas en protección de datos y ciberseguridad182030.
Distribución de Roles y Responsabilidades
Los profesionales sanitarios aportan perspectivas clínicas esenciales sobre la aplicabilidad práctica, seguridad del paciente y integración en flujos de trabajo existentes182731. Su participación garantiza que las consideraciones éticas estén fundamentadas en realidades clínicas y necesidades del paciente. Los expertos en tecnología proporcionan comprensión técnica crítica sobre capacidades y limitaciones de algoritmos, calidad de datos, y riesgos técnicos inherentes192032.
Los especialistas en bioética facilitan la aplicación de principios éticos fundamentales – autonomía, beneficencia, no maleficencia y justicia – al contexto específico de tecnologías de IA médica2933. Los profesionales jurídicos aseguran el cumplimiento de marcos regulatorios complejos, incluyendo normativas de protección de datos como GDPR y HIPAA, así como regulaciones específicas de dispositivos médicos102234.
Funciones Principales y Procesos Operativos
Sistema de Revisión Ética por Fases

La función principal de estos comités consiste en establecer un sistema de revisión ética por fases que acompañe todo el ciclo de vida de desarrollo e implementación de tecnologías de IA e IoMT11516. Este enfoque secuencial permite identificar y abordar problemas éticos en etapas tempranas, cuando las modificaciones son más factibles y menos costosas172.
La fase de formación del comité incluye la designación de miembros multidisciplinarios, definición de marcos éticos específicos, y capacitación especializada en IA, IoMT y bioética aplicada181920. Durante la fase de implementación, el comité conduce evaluaciones éticas iniciales de prototipos, verifica el cumplimiento de criterios éticos establecidos, y otorga autorizaciones para estudios piloto controlados1151617.
Supervisión de Privacidad y Protección de Datos
Una función crítica involucra la supervisión rigurosa del cumplimiento de normativas de protección de datos, particularmente relevante dado que los sistemas de IA médica requieren acceso a volúmenes masivos de información sanitaria sensible102234. El comité debe establecer políticas internas claras y procedimientos de seguridad que cumplan simultáneamente con regulaciones locales e internacionales, incluyendo la Ley Orgánica de Protección de Datos en España, HIPAA en Estados Unidos, y GDPR en la Unión Europea1014.
Esta supervisión incluye la implementación de medidas técnicas robustas como cifrado end-to-end, autenticación multifactor, controles de acceso basados en roles, y auditorías regulares de seguridad. Además, el comité debe asegurar procesos de consentimiento informado que sean comprensibles para pacientes, permitiendo decisiones autónomas sobre el uso de sus datos para entrenamiento y operación de sistemas de IA1835.
Evaluación y Mitigación de Sesgos Algorítmicos
Los sistemas de IA pueden perpetuar o amplificar sesgos existentes en datos de entrenamiento, potencialmente exacerbando desigualdades en acceso y calidad de atención médica91011121326. El comité debe implementar procesos sistemáticos para evaluar conjuntos de datos, metodologías de entrenamiento, y resultados algorítmicos en busca de sesgos que puedan afectar adversamente a poblaciones vulnerables o minoritarias242636.
Esta evaluación requiere análisis tanto cuantitativos como cualitativos de representatividad de datos, equidad de resultados entre diferentes grupos demográficos, y validación externa de algoritmos en poblaciones diversas. Cuando se identifican sesgos, el comité debe requerir medidas correctivas antes de autorizar la implementación clínica2636.
Principios Éticos Fundamentales y Aplicación Práctica
Marco Bioético Integral
Los comités de ética para IA e IoMT deben fundamentar su trabajo en los principios bioéticos establecidos de autonomía, beneficencia, no maleficencia y justicia, adaptándolos específicamente a las complejidades de las tecnologías digitales de salud933. La autonomía del paciente requiere transparencia en el uso de IA, consentimiento informado específico para aplicaciones de IA, y derecho a comprender y cuestionar decisiones algorítmicas1517373238.
La beneficencia exige que las tecnologías de IA demuestren beneficios clínicos tangibles, mejoren resultados de salud, y optimicen la eficiencia diagnóstica y terapéutica4561133. La no maleficencia requiere minimización de riesgos, garantías de seguridad y fiabilidad, y mecanismos robustos para detectar y corregir errores algorítmicos394041.
Implementación de Transparencia y Explicabilidad
Un principio crítico involucra la transparencia algorítmica y explicabilidad de decisiones de IA24243. Los pacientes y profesionales de salud deben poder comprender, al menos conceptualmente, cómo los sistemas de IA llegan a recomendaciones específicas4435. Esto es particularmente importante en decisiones clínicas de alto riesgo, donde la comprensión del razonamiento algorítmico puede influir en la confianza y aceptación de recomendaciones454635.
La explicabilidad no requiere comprensión técnica detallada de algoritmos complejos, sino información accesible sobre factores principales que influyen en decisiones, niveles de confianza del sistema, y limitaciones conocidas444243. Esta transparencia facilita la supervisión humana efectiva y permite a profesionales de salud ejercer juicio clínico informado4748.
Marcos Regulatorios y Cumplimiento Legal
Landscape Regulatorio Complejo
La implementación de comités de ética para IA e IoMT debe navegar un paisaje regulatorio complejo y en evolución que incluye regulaciones tradicionales de dispositivos médicos, normativas emergentes específicas de IA, y marcos de protección de datos22234243. En Europa, el AI Act establece requisitos específicos para sistemas de IA de alto riesgo en salud, incluyendo evaluaciones de conformidad, documentación técnica detallada, y sistemas de gestión de riesgos232449.
El Reglamento de Dispositivos Médicos (MDR) aplicable en la Unión Europea clasifica la mayoría de software médico con IA en categorías de riesgo II-III, requiriendo evaluación por organismos notificados y demostración de seguridad y eficacia clínica5051. En España, la implementación del sandbox regulatorio para IA permite pruebas controladas de sistemas de alto riesgo bajo supervisión de AESIA25.
Gestión de Consentimiento Informado en Era Digital
Los procesos tradicionales de consentimiento informado requieren adaptación significativa para abordar las complejidades de IA médica52535455. Los pacientes deben recibir información comprensible sobre cómo sus datos serán utilizados para entrenamiento de algoritmos, qué tipos de decisiones pueden ser influenciadas por IA, y cuáles son sus derechos respecto al uso de sistemas automatizados en su atención565758.
El desarrollo de herramientas de IA para mejorar la legibilidad de documentos de consentimiento informado representa una innovación prometedora que puede facilitar la comprensión del paciente y mejorar la calidad de decisiones autónomas525455. Sin embargo, estos sistemas deben ser cuidadosamente validados para garantizar que mantengan la precisión y completitud de información esencial mientras mejoran la accesibilidad5455.
Casos de Implementación y Lecciones Aprendidas
Experiencias Hospitalarias Españolas
La implementación práctica de marcos éticos para IA en hospitales españoles proporciona evidencia valiosa sobre desafíos y oportunidades5960. El Hospital Clínic de Barcelona ha desarrollado casos de éxito en aplicación de IA para predicción de mortalidad por COVID-19 y personalización de terapias, demostrando cómo la supervisión ética puede facilitar innovación responsable59.
El Hospital Universitario 12 de Octubre ha identificado la brecha entre desarrollo de algoritmos e implementación clínica como un desafío crítico, sugiriendo la necesidad de marcos éticos que faciliten la traducción de investigación a práctica clínica59. Esta experiencia subraya la importancia de comités que no solo evalúen aspectos éticos, sino que también faciliten la implementación práctica de innovaciones éticamente aprobadas.
Modelos Internacionales de Referencia
La experiencia internacional proporciona modelos valiosos para la estructuración de comités de ética de IA15611829. El BMJ Group ha establecido un comité especializado en ética y IA que asesora sobre evitación de daños, autonomía del paciente, transparencia, y supervisión humana61. Este modelo demuestra cómo organizaciones pueden integrar supervisión ética especializada en procesos existentes de desarrollo y implementación de tecnologías digitales.
La implementación del marco BAIA (Bioethics Artificial Intelligence Advisory) representa un enfoque innovador que integra múltiples perspectivas bioéticas – incluyendo principialismo, casuística, y ética narrativa – con capacidades de IA para proporcionar apoyo integral a decisiones éticas complejas19. Este modelo sugiere posibilidades futuras para comités de ética que utilicen tecnologías de IA para mejorar su propia efectividad y consistencia.
Desafíos de Implementación y Soluciones Estratégicas
Sostenibilidad Financiera y Organizacional
La implementación exitosa de comités de ética para IA e IoMT requiere compromiso organizacional significativo, incluyendo asignación de recursos humanos especializados, desarrollo de capacidades técnicas, y establecimiento de procesos operativos robustos182062. Los hospitales y sistemas de salud deben considerar estos comités como inversiones estratégicas en gestión de riesgos y calidad de atención, rather than como costos administrativos adicionales.
La sostenibilidad puede mejorarse a través de colaboración inter-institucional, compartición de recursos entre organizaciones sanitarias, y desarrollo de marcos estandarizados que reduzcan duplicación de esfuerzos626364. La formación de redes regionales o nacionales de comités de ética de IA puede facilitar intercambio de mejores prácticas y desarrollo de competencias especializadas.
Capacitación y Desarrollo de Competencias
El éxito de estos comités depende critically de la disponibilidad de profesionales con competencias multidisciplinarias en bioética, tecnología de IA, y regulación sanitaria182065. Las instituciones educativas deben desarrollar programas de formación especializados que combinen fundamentos éticos, conocimientos técnicos de IA, y comprensión práctica de aplicaciones médicas165.
La capacitación continua es esencial dado el ritmo acelerado de evolución tecnológica y desarrollo regulatorio661365. Los comités deben establecer programas de actualización regular que mantengan a miembros informados sobre avances tecnológicos, cambios regulatorios, y mejores prácticas emergentes en ética de IA médica.
Perspectivas Futuras y Evolución Tecnológica
Adaptación a Tecnologías Emergentes
Los comités de ética para IA e IoMT deben diseñarse con flexibilidad suficiente para adaptarse a tecnologías emergentes como modelos de lenguaje grandes (LLMs), IA generativa, y sistemas de toma de decisiones autónomos632166. Estas tecnologías presentan desafíos éticos únicos, incluyendo riesgos de «alucinaciones» algorítmicas que generan información falsa pero convincente, y complejidades en la atribución de responsabilidad para decisiones automatizadas67.
La evolución hacia sistemas más autónomos requerirá marcos éticos más sofisticados que puedan evaluar no solo la precisión técnica, sino también la apropiedad de delegation de decisiones médicas a sistemas automatizados474868. Los comités deben desarrollar criterios claros para determinar cuándo la supervisión humana es indispensable versus cuándo la automatización es éticamente aceptable.
Integración con Marcos Regulatorios Internacionales
La naturaleza global del desarrollo de tecnologías de IA requiere que los comités de ética nacionales se alineen con estándares y marcos internacionales emergentes697066. La colaboración internacional en desarrollo de principios éticos para IA médica puede facilitar la interoperabilidad de sistemas y reduce barriers to innovation across borders.
Los comités deben participar activamente en redes internacionales de intercambio de conocimientos, contribuir al desarrollo de estándares globales, y adaptarse a marcos regulatorios internacionales while maintaining sensitivity to local contexts and values706643.
Conclusiones y Recomendaciones Estratégicas
La creación de comités de ética específicos para IA e IoMT en salud representa una recomendación estratégica fundamental que está justificada por la evidencia científica internacional, respaldada por marcos regulatorios emergentes, y validada por experiencias prácticas de implementación. Estos comités no son meramente salvaguardas morales, sino componentes operativos esenciales para la implementación exitosa y responsable de tecnologías disruptivas en el sector sanitario.
El éxito de estos comités depende de varios factores críticos: composición multidisciplinaria que integre perspectivas clínicas, tecnológicas, éticas y legales; procesos operativos robustos que proporcionen supervisión continua durante todo el ciclo de vida de tecnologías de IA; y capacidades adaptativas que permitan evolución en respuesta a avances tecnológicos y cambios regulatorios.
La implementación efectiva requiere compromiso organizacional significativo, incluyendo asignación de recursos adecuados, desarrollo de competencias especializadas, y establecimiento de culturas organizacionales que valoren la innovación ética. Sin embargo, los beneficios potenciales – incluyendo reducción de riesgos legales y reputacionales, mejora de confianza pública, y facilitación de innovación responsable – justifican estas inversiones.
Las organizaciones sanitarias que implementen proactivamente comités de ética especializados para IA e IoMT se posicionarán ventajosamente para navegar el landscape complejo y en evolución de regulación de IA médica, mientras demuestran liderazgo en innovación ética y responsable que puede servir como modelo para el sector sanitario global.
- https://www.revclinesp.es/es-etica-e-inteligencia-artificial-articulo-S0014256524000262
- https://www.simbo.ai/blog/the-role-of-ai-ethics-committees-in-ensuring-ethical-standards-and-organizational-alignment-in-ai-projects-1361803/
- https://fashion.sustainability-directory.com/term/ethical-iomt-data-handling/
- https://www.isciii.es/w/espana-acoge-la-reunion-anual-de-consejos-de-etica-de-la-ue-que-ha-debatido-cuestiones-como-desigualdades-en-salud-inteligencia-artificial-y-proteccion-de-datos-1
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11230076/
- https://journal-isi.org/index.php/isi/article/view/960
- https://www.digitales.es/wp-content/uploads/2022/02/Informe_IA_Etica_en_Sanidad.pdf
- https://bmjgroup.com/committee-on-ethics-and-artificial-intelligence/
- https://grupooesia.com/en/insight/internet-of-medical-things-iomt-revolutionizing-medical-care/
- https://www.revistafarmaciahospitalaria.es/es-aspectos-eticos-inteligencia-artificial-ia–avance-S1130634325000662
- https://www.uoc.edu/en/research/ehealth-center/news/artificial-intelligence-health-ethics
- https://journals.gaftim.com/index.php/ijcim/article/view/114
- https://www.iacs.es/evento/consideraciones-eticas-en-la-adopcion-de-inteligencia-artificial-en-salud/
- https://www.who.int/publications/i/item/9789240029200
- https://link.springer.com/chapter/10.1007/978-3-031-55221-2_19
- https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
- https://hbr.org/2022/07/why-you-need-an-ai-ethics-committee
- https://www.sciencedirect.com/science/article/pii/S258891412400008X
- https://aipocrates.blog/2025/04/27/el-uso-de-la-inteligencia-artificial-en-los-comites-de-etica-en-investigacion-cei/
- https://transform.england.nhs.uk/ai-lab/ai-lab-programmes/ethics/
- https://www.sheppardhealthlaw.com/2024/08/articles/artificial-intelligence/key-elements-of-an-ai-governance-program-in-healthcare/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11906199/
- https://arxiv.org/abs/2210.12007
- https://www.dialecticanet.com/community-hub/governance-first-ai-in-healthcare-balancing-innovation-and-ethics
- https://www.ncbcenter.org/messages-from-presidents/bioethicsandai
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9528947/
- https://www.comillas.edu/en/dignidad-humana-y-bioetica-de-la-inteligencia-artificial/
- https://upcommons.upc.edu/bitstream/handle/2117/401228/IoT.thesis.pdf;jsessionid=888DCB3A067A8E612E44F7D2DF23ADBD?sequence=3
- https://www.thehastingscenter.org/ethics-of-ai-in-health-and-biomedical-research/
- https://dialnet.unirioja.es/descarga/articulo/9537227.pdf
- https://www.comillas.edu/en/el-impacto-de-la-inteligencia-artificial-en-la-bioetica/
- https://thewaitingroom.karger.com/tell-me-about/artificial-intelligence-in-healthcare-governance-and-ethical-guidelines/
- https://www.ethics.harvard.edu/blog/post-9-how-bioethics-can-inform-ethical-ai-governance
- https://riunet.upv.es/bitstreams/47cfc909-ede3-49e0-b970-fd731a1f777f/download
- https://www.nature.com/articles/s41599-024-02894-w
- https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-024-01044-w
- https://jme.bmj.com/content/early/2023/09/20/jme-2023-109095
- https://www.port.ac.uk/news-events-and-blogs/blogs/improving-health-and-wellbeing/ai-could-transform-ethics-committees
- https://healthpolicy.duke.edu/projects/health-system-ai-governance
- https://pubmed.ncbi.nlm.nih.gov/38527299/
- https://cec.hscni.net/artificial-intelligence-ai-in-clinical-ethics/
- https://www.researchprotocols.org/2025/1/e75702
- https://pmc.ncbi.nlm.nih.gov/articles/PMC8826344/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11256615/
- https://pubmed.ncbi.nlm.nih.gov/39176908/
- https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-023-00927-8
- https://journals.sagepub.com/doi/10.1177/08404704241291226?icid=int.sj-full-text.similar-
- https://www.ibanet.org/ai-healthcare-legal-ethical
- https://link.springer.com/article/10.1007/s13193-025-02229-4
- https://www.aha.org/education-events/ai-governance-how-should-hospitals-organize-themselves-manage-risk-and-opportunity
- https://www.who.int/publications/i/item/9789240084759
- https://pubmed.ncbi.nlm.nih.gov/39470044/
- https://dai.ki/blog/ai-ethics-in-healthcare-challenges-regulations-and-solutions/
- https://www.peerbits.com/blog/build-ai-healthcare-software.html
- https://legalnodes.com/article/ai-healthcare-regulation
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10879008/
- https://www.simbo.ai/blog/the-ethical-implications-of-ai-in-healthcare-navigating-gdpr-and-hipaa-to-preserve-patient-trust-and-data-security-1629008/
- https://petrieflom.law.harvard.edu/2025/02/24/europe-tightens-data-protection-rules-for-ai-models-and-its-a-big-deal-for-healthcare-and-life-sciences/
- https://www.superdial.com/blog/ai-in-healthcare-ethics-what-to-make-of-healthcare-automation
- https://globallawexperts.com/artificial-intelligence-medical-devices-and-gdpr-in-healthcare-everything-you-need-to-know-about-the-current-legal-frame/
- https://kennedyslaw.com/en/thought-leadership/article/2025/training-ai-on-health-data-contractual-and-data-protection-considerations-for-healthtech-providers/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12076083/
- https://www.hipaajournal.com/when-ai-technology-and-hipaa-collide/
- https://link.springer.com/article/10.1007/s12553-024-00878-z
- https://intellias.com/ai-in-healthcare-compliance/
- https://emmainternational.com/hipaa-and-gdprs-impact-on-medical-devices/
- https://cnpd.public.lu/en/dossiers-thematiques/intelligence-artificielle/intelligence-artificielle-introduction/ia-legislation.html
- https://xqy.zoy.temporary.site/the-ai-revolution-in-healthcare-compliance-a-game-changer-or-a-risky-bet/
- https://www.onetrust.com/blog/hipaa-vs-gdpr-compliance/
- https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
- https://www.aoshearman.com/en/insights/ao-shearman-on-life-sciences/ai-in-healthcare-legal-and-ethical-considerations-in-this-new-frontier
- https://www.mondaylabs.ai/blog/hipaa-gdpr-ai-building-compliant-healthcare-systems-in-the-age-of-automation
- https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence
- https://www.mintur.gob.es/Publicaciones/Publicacionesperiodicas/EconomiaIndustrial/RevistaEconomiaIndustrial/423/SA%CC%81NCHEZ%20ROSADO%20Y%20DI%CC%81EZ%20PARRA.pdf
- https://www.negligenciamedica.madrid/uso-indebido-de-inteligencia-artificial-en-diagnostico-medico/
- https://www.navarra.es/es/-/nota-prensa/navarra-crea-el-comite-de-etica-de-la-oficina-del-dato-para-garantizar-la-transparencia-en-el-uso-y-desarrollo-de-la-ia
- https://www.aepd.es/documento/premio-emilio-aced-2022-guillermo-lazcoz.pdf
- https://gacetamedica.com/profesion/responsabilidad-civil-inteligencia-artificial-uniteco/
- https://comc-es.org/la-ia-en-el-ambito-sanitario-hacia-una-medicina-mas-predictiva-y-personalizada/
- https://www.unia.es/vida-universitaria/blog/legislacion-de-la-inteligencia-artificial-en-el-ambito-sanitario
- https://foretica.org/blog/2021/10/comite-de-etica-de-inteligencia-artificial-de-mutualidad-de-la-abogacia/
- https://health.ec.europa.eu/ehealth-digital-health-and-care/artificial-intelligence-healthcare_es
- https://www.fesemi.org/informacion/prensa/semi/medicos-internistas-piden-una-aplicacion-responsable-y-etica-de-la-ia-basada
- https://www.unilim.fr/trahs/index.php?id=6349&lang=fr
- https://www.unia.es/vida-universitaria/blog/inteligencia-artificial-en-la-medicina-el-futuro-de-la-salud
- https://www.immedicohospitalario.es/noticia/42601/medicos-internistas-reclaman-una-aplicacion-responsable-y-etica-de.html
- https://www.ibm.com/mx-es/think/topics/ai-ethics
- https://www.mapfre.com/actualidad/innovacion/inteligencia-artificial-salud/
- https://www.editorialreus.es/media/pdf/primeraspaginas_9788429027969_riesgos-del-uso-de-algoritmos.pdf
- https://www.fundacionseres.org/Lists/Informes/Attachments/1158/InformeEticaIA_Un%20reto%20estrat%C3%A9gico%20para%20las%20empresas%20y%20la%20sociedad.pdf
- https://www.immedicohospitalario.es/noticia/50717/la-semg-catalunya-impulsa-la-formacion-en-ia-para-medicos-de-ap.html
- https://saludconectada.com/el-impacto-de-la-ia-hacia-un-consentimiento-informado-simple-y-accesible/
- https://www.reviewofailaw.com/Tool/Evidenza/Single/view_html?id_evidenza=3129
- https://www.healthnology.es/pueden-los-algoritmos-influir-en-tratamientos-medicos/
- https://www.ecija.com/actualidad-insights/la-inteligencia-artificial-en-el-diagnostico-medico/
- https://www.nature.com/articles/s41599-023-02565-2
- https://mapa.innobasque.eus/casos-practicos/asociacion-instituto-de-investigacion-sanitaria-biocruces-bizkaia_mejorando-la-legibilidad-y-comprension-de-los-documentos-de-consentimiento-informado-mediante-herramientas-de-inteligencia-artificial
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-spain
- https://focalx.ai/es/inteligencia-artificial-es/ia-con-supervision-humana-equilibrio-entre-autonomia-y-control/
- https://www.otrosi.net/el-uso-de-la-ia-en-el-sector-sanitario-debe-estar-siempre-controlado-por-un-profesional-medico/
- https://eithealth.eu/news-article/eit-health-calls-for-the-responsible-use-of-ai-in-healthcare/
- https://radarhealthcare.sdli.es/2024/11/07/ia-reescribe-los-documentos-de-consentimiento-informado-haciendo-su-lectura-mas-facil/
- https://www.revclinesp.es/en-ethics-artificial-intelligence-articulo-S2254887424000213
- https://www.unia.es/vida-universitaria/blog/la-ia-esta-sustituyendo-medicos-en-hospitales-realidad-o-ficcion
- https://artificialintelligenceact.eu/es/article/61/
- https://www.elsevier.es/es-revista-journal-healthcare-quality-research-257-avance-resumen-ethical-challenges-ai-based-innovation-in-S260364792500017X
- https://www.icomem.es/comunicacion/noticias/4766/Expertos-advierten-la-IA-ya-esta-cambiando-la-sanidad
- https://pro.campus.sanofi/dam/Portal/Spain/formacion/Campus-IA/agente-ia-redaccion-consentimientos-informados-medicina/guia-agente-ia-redaccion-consentimientos-informados-medicina.pdf
- https://www.lamoncloa.gob.es/lang/en/gobierno/councilministers/paginas/2024/20240514-council-press-conference.aspx
- https://www.newmedicaleconomics.es/ia-y-datos-casos-de-exito-del-sns-2/
- https://repositori.uji.es/bitstreams/fe19e25e-5447-4cfb-9dbb-d5e6a35a363d/download
- https://www.describehw.com/post/historias-cl%C3%ADnicas-e-inteligencia-artificial
- https://epsir.net/index.php/epsir/article/view/896
- http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S2014-98322024000200002
- https://www.itmastersmag.com/inteligencia-artificial/etica-en-la-ai-claves-para-su-implementacion-responsable/
- https://www.tucuvi.com/es/blog/ethical-ai-in-healthcare-tucuvis-commitment-to-responsible-innovation
- https://es.linkedin.com/pulse/casos-de-%C3%A9xito-c%C3%B3mo-los-hospitales-en-espa%C3%B1a-est%C3%A1n-transformando-gchde
- https://botpress.com/es/blog/generative-ai-use-cases-in-healthcare
- https://www.pwc.es/es/publicaciones/tecnologia/assets/guia-buenas-practicas-uso-inteligencia-artificial-pwc-odiseia.pdf
- https://virtuabarcelona.com/2025/05/05/inteligencia-artificial-en-medicina-el-amanecer-del-doctor-ia-o-una-frontera-peligrosa/
- https://itsit.es/ia-en-medicina-casos-de-exito/
- https://www.laborhospitalaria.com/consideraciones-eticas-legales-y-sociales-para-el-uso-de-la-inteligencia-artificial-en-investigacion-y-atravesada-por-la-complejidad-y-la-ambiguedad/
- https://isanidad.com/338795/como-sanar-el-sistema-sanitario-con-inteligencia-artificial-cinco-casos-de-uso-reales/
- https://www.sap.com/spain/resources/what-is-ai-ethics
