La Creación de Comités de Ética Específicos para IA e IoMT en Salud: Un Marco Estratégico Fundamental para la Implementación Ética y Legal de Tecnologías Médicas

Tecnologías Sanitarias INTELIGENCIA ARTIFICIAL Inteligencia artificial IA

La Creación de Comités de Ética Específicos para IA e IoMT en Salud: Un Marco Estratégico Fundamental para la Implementación Ética y Legal de Tecnologías Médicas

Los avances exponenciales en inteligencia artificial (IA) e Internet de las Cosas Médicas (IoMT) están transformando radicalmente el panorama sanitario global, creando oportunidades sin precedentes para mejorar la calidad, eficiencia y personalización de la atención médica. Sin embargo, esta revolución tecnológica conlleva desafíos éticos, legales y regulatorios complejos que requieren marcos de gobernanza específicos y robustos. La propuesta de establecer comités de ética especializados para IA e IoMT emerge como una recomendación estratégica fundamental, respaldada por evidencia científica internacional y marcos regulatorios emergentes que reconocen la necesidad crítica de supervisión ética especializada en el desarrollo e implementación de estas tecnologías disruptivas.

Componentes esenciales de un comité de ética para IA y IoMT en salud, mostrando la composición multidisciplinaria, funciones principales y principios éticos fundamentales

Marco Conceptual y Justificación Estratégica

Transformación Digital en Salud y Necesidad de Supervisión Ética

La integración de IA e IoMT en el sector sanitario representa una de las transformaciones más significativas en la historia de la medicina moderna123. Estos sistemas pueden analizar volúmenes masivos de datos clínicos en tiempo real, personalizar tratamientos, predecir complicaciones médicas y optimizar la gestión de recursos hospitalarios45678. Sin embargo, la implementación de estas tecnologías sin marcos éticos adecuados puede generar consecuencias adversas significativas, incluyendo sesgos algorítmicos que perpetúan desigualdades en salud, violaciones de privacidad de datos sensibles, y erosión de la confianza en el sistema sanitario91011121314.

Los comités de ética específicos para IA e IoMT representan una evolución necesaria de los marcos tradicionales de bioética, adaptándose a las complejidades únicas de las tecnologías digitales de salud1516172. Estos comités no solo proporcionan supervisión reactiva, sino que establecen marcos proactivos para identificar, evaluar y mitigar riesgos éticos antes de que se materialicen en daños a pacientes o comunidades181920.

Evidencia Internacional y Marcos Regulatorios Emergentes

La necesidad de supervisión ética especializada para IA en salud está siendo reconocida globalmente por organizaciones internacionales y reguladores nacionales321. La Organización Mundial de la Salud ha desarrollado directrices específicas que identifican seis principios consensuados para garantizar que la IA funcione en beneficio público: transparencia, responsabilidad, inclusión, sensibilidad, equidad y sostenibilidad3. La Unión Europea, a través del AI Act, clasifica los sistemas de IA médica como de «alto riesgo», requiriendo evaluaciones rigurosas de conformidad, documentación técnica detallada y supervisión humana continua222324.

En España, la creación de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) y el desarrollo del borrador de Ley de IA española reflejan el reconocimiento gubernamental de la necesidad de marcos regulatorios específicos para tecnologías de IA25. Estos desarrollos normativos subrayan la importancia de establecer estructuras de gobernanza que puedan adaptarse a la evolución rápida de las tecnologías de IA mientras mantienen estándares éticos rigurosos261427.

Composición y Estructura del Comité de Ética

Enfoque Multidisciplinario Integral

La efectividad de un comité de ética para IA e IoMT depende fundamentalmente de su composición multidisciplinaria, que debe integrar perspectivas clínicas, tecnológicas, éticas, legales y sociales1820. Esta diversidad de experticia es esencial para abordar la complejidad inherente de las tecnologías de IA médica, que intersectan múltiples dominios de conocimiento y afectan diversos aspectos del cuidado de la salud.

La investigación en bioética aplicada a IA sugiere que los comités más efectivos incluyen al menos seis categorías de miembros especializados192829: profesionales sanitarios con experiencia clínica directa, expertos en tecnología con conocimientos profundos en IA y análisis de datos, especialistas en bioética y filosofía moral, profesionales jurídicos con expertise en derecho sanitario y protección de datos, representantes de pacientes y comunidades afectadas, y especialistas en protección de datos y ciberseguridad182030.

Distribución de Roles y Responsabilidades

Los profesionales sanitarios aportan perspectivas clínicas esenciales sobre la aplicabilidad práctica, seguridad del paciente y integración en flujos de trabajo existentes182731. Su participación garantiza que las consideraciones éticas estén fundamentadas en realidades clínicas y necesidades del paciente. Los expertos en tecnología proporcionan comprensión técnica crítica sobre capacidades y limitaciones de algoritmos, calidad de datos, y riesgos técnicos inherentes192032.

Los especialistas en bioética facilitan la aplicación de principios éticos fundamentales – autonomía, beneficencia, no maleficencia y justicia – al contexto específico de tecnologías de IA médica2933. Los profesionales jurídicos aseguran el cumplimiento de marcos regulatorios complejos, incluyendo normativas de protección de datos como GDPR y HIPAA, así como regulaciones específicas de dispositivos médicos102234.

Funciones Principales y Procesos Operativos

Sistema de Revisión Ética por Fases

Proceso de implementación y supervisión de un comité de ética para IA e IoMT en salud, desde la formación inicial hasta la evaluación continua y el escalamiento seguro

La función principal de estos comités consiste en establecer un sistema de revisión ética por fases que acompañe todo el ciclo de vida de desarrollo e implementación de tecnologías de IA e IoMT11516. Este enfoque secuencial permite identificar y abordar problemas éticos en etapas tempranas, cuando las modificaciones son más factibles y menos costosas172.

La fase de formación del comité incluye la designación de miembros multidisciplinarios, definición de marcos éticos específicos, y capacitación especializada en IA, IoMT y bioética aplicada181920. Durante la fase de implementación, el comité conduce evaluaciones éticas iniciales de prototipos, verifica el cumplimiento de criterios éticos establecidos, y otorga autorizaciones para estudios piloto controlados1151617.

Supervisión de Privacidad y Protección de Datos

Una función crítica involucra la supervisión rigurosa del cumplimiento de normativas de protección de datos, particularmente relevante dado que los sistemas de IA médica requieren acceso a volúmenes masivos de información sanitaria sensible102234. El comité debe establecer políticas internas claras y procedimientos de seguridad que cumplan simultáneamente con regulaciones locales e internacionales, incluyendo la Ley Orgánica de Protección de Datos en España, HIPAA en Estados Unidos, y GDPR en la Unión Europea1014.

Esta supervisión incluye la implementación de medidas técnicas robustas como cifrado end-to-end, autenticación multifactor, controles de acceso basados en roles, y auditorías regulares de seguridad. Además, el comité debe asegurar procesos de consentimiento informado que sean comprensibles para pacientes, permitiendo decisiones autónomas sobre el uso de sus datos para entrenamiento y operación de sistemas de IA1835.

Evaluación y Mitigación de Sesgos Algorítmicos

Los sistemas de IA pueden perpetuar o amplificar sesgos existentes en datos de entrenamiento, potencialmente exacerbando desigualdades en acceso y calidad de atención médica91011121326. El comité debe implementar procesos sistemáticos para evaluar conjuntos de datos, metodologías de entrenamiento, y resultados algorítmicos en busca de sesgos que puedan afectar adversamente a poblaciones vulnerables o minoritarias242636.

Esta evaluación requiere análisis tanto cuantitativos como cualitativos de representatividad de datos, equidad de resultados entre diferentes grupos demográficos, y validación externa de algoritmos en poblaciones diversas. Cuando se identifican sesgos, el comité debe requerir medidas correctivas antes de autorizar la implementación clínica2636.

Principios Éticos Fundamentales y Aplicación Práctica

Marco Bioético Integral

Los comités de ética para IA e IoMT deben fundamentar su trabajo en los principios bioéticos establecidos de autonomía, beneficencia, no maleficencia y justicia, adaptándolos específicamente a las complejidades de las tecnologías digitales de salud933. La autonomía del paciente requiere transparencia en el uso de IA, consentimiento informado específico para aplicaciones de IA, y derecho a comprender y cuestionar decisiones algorítmicas1517373238.

La beneficencia exige que las tecnologías de IA demuestren beneficios clínicos tangibles, mejoren resultados de salud, y optimicen la eficiencia diagnóstica y terapéutica4561133. La no maleficencia requiere minimización de riesgos, garantías de seguridad y fiabilidad, y mecanismos robustos para detectar y corregir errores algorítmicos394041.

Implementación de Transparencia y Explicabilidad

Un principio crítico involucra la transparencia algorítmica y explicabilidad de decisiones de IA24243. Los pacientes y profesionales de salud deben poder comprender, al menos conceptualmente, cómo los sistemas de IA llegan a recomendaciones específicas4435. Esto es particularmente importante en decisiones clínicas de alto riesgo, donde la comprensión del razonamiento algorítmico puede influir en la confianza y aceptación de recomendaciones454635.

La explicabilidad no requiere comprensión técnica detallada de algoritmos complejos, sino información accesible sobre factores principales que influyen en decisiones, niveles de confianza del sistema, y limitaciones conocidas444243. Esta transparencia facilita la supervisión humana efectiva y permite a profesionales de salud ejercer juicio clínico informado4748.

Landscape Regulatorio Complejo

La implementación de comités de ética para IA e IoMT debe navegar un paisaje regulatorio complejo y en evolución que incluye regulaciones tradicionales de dispositivos médicos, normativas emergentes específicas de IA, y marcos de protección de datos22234243. En Europa, el AI Act establece requisitos específicos para sistemas de IA de alto riesgo en salud, incluyendo evaluaciones de conformidad, documentación técnica detallada, y sistemas de gestión de riesgos232449.

El Reglamento de Dispositivos Médicos (MDR) aplicable en la Unión Europea clasifica la mayoría de software médico con IA en categorías de riesgo II-III, requiriendo evaluación por organismos notificados y demostración de seguridad y eficacia clínica5051. En España, la implementación del sandbox regulatorio para IA permite pruebas controladas de sistemas de alto riesgo bajo supervisión de AESIA25.

Gestión de Consentimiento Informado en Era Digital

Los procesos tradicionales de consentimiento informado requieren adaptación significativa para abordar las complejidades de IA médica52535455. Los pacientes deben recibir información comprensible sobre cómo sus datos serán utilizados para entrenamiento de algoritmos, qué tipos de decisiones pueden ser influenciadas por IA, y cuáles son sus derechos respecto al uso de sistemas automatizados en su atención565758.

El desarrollo de herramientas de IA para mejorar la legibilidad de documentos de consentimiento informado representa una innovación prometedora que puede facilitar la comprensión del paciente y mejorar la calidad de decisiones autónomas525455. Sin embargo, estos sistemas deben ser cuidadosamente validados para garantizar que mantengan la precisión y completitud de información esencial mientras mejoran la accesibilidad5455.

Casos de Implementación y Lecciones Aprendidas

Experiencias Hospitalarias Españolas

La implementación práctica de marcos éticos para IA en hospitales españoles proporciona evidencia valiosa sobre desafíos y oportunidades5960. El Hospital Clínic de Barcelona ha desarrollado casos de éxito en aplicación de IA para predicción de mortalidad por COVID-19 y personalización de terapias, demostrando cómo la supervisión ética puede facilitar innovación responsable59.

El Hospital Universitario 12 de Octubre ha identificado la brecha entre desarrollo de algoritmos e implementación clínica como un desafío crítico, sugiriendo la necesidad de marcos éticos que faciliten la traducción de investigación a práctica clínica59. Esta experiencia subraya la importancia de comités que no solo evalúen aspectos éticos, sino que también faciliten la implementación práctica de innovaciones éticamente aprobadas.

Modelos Internacionales de Referencia

La experiencia internacional proporciona modelos valiosos para la estructuración de comités de ética de IA15611829. El BMJ Group ha establecido un comité especializado en ética y IA que asesora sobre evitación de daños, autonomía del paciente, transparencia, y supervisión humana61. Este modelo demuestra cómo organizaciones pueden integrar supervisión ética especializada en procesos existentes de desarrollo y implementación de tecnologías digitales.

La implementación del marco BAIA (Bioethics Artificial Intelligence Advisory) representa un enfoque innovador que integra múltiples perspectivas bioéticas – incluyendo principialismo, casuística, y ética narrativa – con capacidades de IA para proporcionar apoyo integral a decisiones éticas complejas19. Este modelo sugiere posibilidades futuras para comités de ética que utilicen tecnologías de IA para mejorar su propia efectividad y consistencia.

Desafíos de Implementación y Soluciones Estratégicas

Sostenibilidad Financiera y Organizacional

La implementación exitosa de comités de ética para IA e IoMT requiere compromiso organizacional significativo, incluyendo asignación de recursos humanos especializados, desarrollo de capacidades técnicas, y establecimiento de procesos operativos robustos182062. Los hospitales y sistemas de salud deben considerar estos comités como inversiones estratégicas en gestión de riesgos y calidad de atención, rather than como costos administrativos adicionales.

La sostenibilidad puede mejorarse a través de colaboración inter-institucional, compartición de recursos entre organizaciones sanitarias, y desarrollo de marcos estandarizados que reduzcan duplicación de esfuerzos626364. La formación de redes regionales o nacionales de comités de ética de IA puede facilitar intercambio de mejores prácticas y desarrollo de competencias especializadas.

Capacitación y Desarrollo de Competencias

El éxito de estos comités depende critically de la disponibilidad de profesionales con competencias multidisciplinarias en bioética, tecnología de IA, y regulación sanitaria182065. Las instituciones educativas deben desarrollar programas de formación especializados que combinen fundamentos éticos, conocimientos técnicos de IA, y comprensión práctica de aplicaciones médicas165.

La capacitación continua es esencial dado el ritmo acelerado de evolución tecnológica y desarrollo regulatorio661365. Los comités deben establecer programas de actualización regular que mantengan a miembros informados sobre avances tecnológicos, cambios regulatorios, y mejores prácticas emergentes en ética de IA médica.

Perspectivas Futuras y Evolución Tecnológica

Adaptación a Tecnologías Emergentes

Los comités de ética para IA e IoMT deben diseñarse con flexibilidad suficiente para adaptarse a tecnologías emergentes como modelos de lenguaje grandes (LLMs), IA generativa, y sistemas de toma de decisiones autónomos632166. Estas tecnologías presentan desafíos éticos únicos, incluyendo riesgos de «alucinaciones» algorítmicas que generan información falsa pero convincente, y complejidades en la atribución de responsabilidad para decisiones automatizadas67.

La evolución hacia sistemas más autónomos requerirá marcos éticos más sofisticados que puedan evaluar no solo la precisión técnica, sino también la apropiedad de delegation de decisiones médicas a sistemas automatizados474868. Los comités deben desarrollar criterios claros para determinar cuándo la supervisión humana es indispensable versus cuándo la automatización es éticamente aceptable.

Integración con Marcos Regulatorios Internacionales

La naturaleza global del desarrollo de tecnologías de IA requiere que los comités de ética nacionales se alineen con estándares y marcos internacionales emergentes697066. La colaboración internacional en desarrollo de principios éticos para IA médica puede facilitar la interoperabilidad de sistemas y reduce barriers to innovation across borders.

Los comités deben participar activamente en redes internacionales de intercambio de conocimientos, contribuir al desarrollo de estándares globales, y adaptarse a marcos regulatorios internacionales while maintaining sensitivity to local contexts and values706643.

Conclusiones y Recomendaciones Estratégicas

La creación de comités de ética específicos para IA e IoMT en salud representa una recomendación estratégica fundamental que está justificada por la evidencia científica internacional, respaldada por marcos regulatorios emergentes, y validada por experiencias prácticas de implementación. Estos comités no son meramente salvaguardas morales, sino componentes operativos esenciales para la implementación exitosa y responsable de tecnologías disruptivas en el sector sanitario.

El éxito de estos comités depende de varios factores críticos: composición multidisciplinaria que integre perspectivas clínicas, tecnológicas, éticas y legales; procesos operativos robustos que proporcionen supervisión continua durante todo el ciclo de vida de tecnologías de IA; y capacidades adaptativas que permitan evolución en respuesta a avances tecnológicos y cambios regulatorios.

La implementación efectiva requiere compromiso organizacional significativo, incluyendo asignación de recursos adecuados, desarrollo de competencias especializadas, y establecimiento de culturas organizacionales que valoren la innovación ética. Sin embargo, los beneficios potenciales – incluyendo reducción de riesgos legales y reputacionales, mejora de confianza pública, y facilitación de innovación responsable – justifican estas inversiones.

Las organizaciones sanitarias que implementen proactivamente comités de ética especializados para IA e IoMT se posicionarán ventajosamente para navegar el landscape complejo y en evolución de regulación de IA médica, mientras demuestran liderazgo en innovación ética y responsable que puede servir como modelo para el sector sanitario global.

  1. https://www.revclinesp.es/es-etica-e-inteligencia-artificial-articulo-S0014256524000262
  2. https://www.simbo.ai/blog/the-role-of-ai-ethics-committees-in-ensuring-ethical-standards-and-organizational-alignment-in-ai-projects-1361803/
  3. https://fashion.sustainability-directory.com/term/ethical-iomt-data-handling/
  4. https://www.isciii.es/w/espana-acoge-la-reunion-anual-de-consejos-de-etica-de-la-ue-que-ha-debatido-cuestiones-como-desigualdades-en-salud-inteligencia-artificial-y-proteccion-de-datos-1
  5. https://pmc.ncbi.nlm.nih.gov/articles/PMC11230076/
  6. https://journal-isi.org/index.php/isi/article/view/960
  7. https://www.digitales.es/wp-content/uploads/2022/02/Informe_IA_Etica_en_Sanidad.pdf
  8. https://bmjgroup.com/committee-on-ethics-and-artificial-intelligence/
  9. https://grupooesia.com/en/insight/internet-of-medical-things-iomt-revolutionizing-medical-care/
  10. https://www.revistafarmaciahospitalaria.es/es-aspectos-eticos-inteligencia-artificial-ia–avance-S1130634325000662
  11. https://www.uoc.edu/en/research/ehealth-center/news/artificial-intelligence-health-ethics
  12. https://journals.gaftim.com/index.php/ijcim/article/view/114
  13. https://www.iacs.es/evento/consideraciones-eticas-en-la-adopcion-de-inteligencia-artificial-en-salud/
  14. https://www.who.int/publications/i/item/9789240029200
  15. https://link.springer.com/chapter/10.1007/978-3-031-55221-2_19
  16. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
  17. https://hbr.org/2022/07/why-you-need-an-ai-ethics-committee
  18. https://www.sciencedirect.com/science/article/pii/S258891412400008X
  19. https://aipocrates.blog/2025/04/27/el-uso-de-la-inteligencia-artificial-en-los-comites-de-etica-en-investigacion-cei/
  20. https://transform.england.nhs.uk/ai-lab/ai-lab-programmes/ethics/
  21. https://www.sheppardhealthlaw.com/2024/08/articles/artificial-intelligence/key-elements-of-an-ai-governance-program-in-healthcare/
  22. https://pmc.ncbi.nlm.nih.gov/articles/PMC11906199/
  23. https://arxiv.org/abs/2210.12007
  24. https://www.dialecticanet.com/community-hub/governance-first-ai-in-healthcare-balancing-innovation-and-ethics
  25. https://www.ncbcenter.org/messages-from-presidents/bioethicsandai
  26. https://pmc.ncbi.nlm.nih.gov/articles/PMC9528947/
  27. https://www.comillas.edu/en/dignidad-humana-y-bioetica-de-la-inteligencia-artificial/
  28. https://upcommons.upc.edu/bitstream/handle/2117/401228/IoT.thesis.pdf;jsessionid=888DCB3A067A8E612E44F7D2DF23ADBD?sequence=3
  29. https://www.thehastingscenter.org/ethics-of-ai-in-health-and-biomedical-research/
  30. https://dialnet.unirioja.es/descarga/articulo/9537227.pdf
  31. https://www.comillas.edu/en/el-impacto-de-la-inteligencia-artificial-en-la-bioetica/
  32. https://thewaitingroom.karger.com/tell-me-about/artificial-intelligence-in-healthcare-governance-and-ethical-guidelines/
  33. https://www.ethics.harvard.edu/blog/post-9-how-bioethics-can-inform-ethical-ai-governance
  34. https://riunet.upv.es/bitstreams/47cfc909-ede3-49e0-b970-fd731a1f777f/download
  35. https://www.nature.com/articles/s41599-024-02894-w
  36. https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-024-01044-w
  37. https://jme.bmj.com/content/early/2023/09/20/jme-2023-109095
  38. https://www.port.ac.uk/news-events-and-blogs/blogs/improving-health-and-wellbeing/ai-could-transform-ethics-committees
  39. https://healthpolicy.duke.edu/projects/health-system-ai-governance
  40. https://pubmed.ncbi.nlm.nih.gov/38527299/
  41. https://cec.hscni.net/artificial-intelligence-ai-in-clinical-ethics/
  42. https://www.researchprotocols.org/2025/1/e75702
  43. https://pmc.ncbi.nlm.nih.gov/articles/PMC8826344/
  44. https://pmc.ncbi.nlm.nih.gov/articles/PMC11256615/
  45. https://pubmed.ncbi.nlm.nih.gov/39176908/
  46. https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-023-00927-8
  47. https://journals.sagepub.com/doi/10.1177/08404704241291226?icid=int.sj-full-text.similar-
  48. https://www.ibanet.org/ai-healthcare-legal-ethical
  49. https://link.springer.com/article/10.1007/s13193-025-02229-4
  50. https://www.aha.org/education-events/ai-governance-how-should-hospitals-organize-themselves-manage-risk-and-opportunity
  51. https://www.who.int/publications/i/item/9789240084759
  52. https://pubmed.ncbi.nlm.nih.gov/39470044/
  53. https://dai.ki/blog/ai-ethics-in-healthcare-challenges-regulations-and-solutions/
  54. https://www.peerbits.com/blog/build-ai-healthcare-software.html
  55. https://legalnodes.com/article/ai-healthcare-regulation
  56. https://pmc.ncbi.nlm.nih.gov/articles/PMC10879008/
  57. https://www.simbo.ai/blog/the-ethical-implications-of-ai-in-healthcare-navigating-gdpr-and-hipaa-to-preserve-patient-trust-and-data-security-1629008/
  58. https://petrieflom.law.harvard.edu/2025/02/24/europe-tightens-data-protection-rules-for-ai-models-and-its-a-big-deal-for-healthcare-and-life-sciences/
  59. https://www.superdial.com/blog/ai-in-healthcare-ethics-what-to-make-of-healthcare-automation
  60. https://globallawexperts.com/artificial-intelligence-medical-devices-and-gdpr-in-healthcare-everything-you-need-to-know-about-the-current-legal-frame/
  61. https://kennedyslaw.com/en/thought-leadership/article/2025/training-ai-on-health-data-contractual-and-data-protection-considerations-for-healthtech-providers/
  62. https://pmc.ncbi.nlm.nih.gov/articles/PMC12076083/
  63. https://www.hipaajournal.com/when-ai-technology-and-hipaa-collide/
  64. https://link.springer.com/article/10.1007/s12553-024-00878-z
  65. https://intellias.com/ai-in-healthcare-compliance/
  66. https://emmainternational.com/hipaa-and-gdprs-impact-on-medical-devices/
  67. https://cnpd.public.lu/en/dossiers-thematiques/intelligence-artificielle/intelligence-artificielle-introduction/ia-legislation.html
  68. https://xqy.zoy.temporary.site/the-ai-revolution-in-healthcare-compliance-a-game-changer-or-a-risky-bet/
  69. https://www.onetrust.com/blog/hipaa-vs-gdpr-compliance/
  70. https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
  71. https://www.aoshearman.com/en/insights/ao-shearman-on-life-sciences/ai-in-healthcare-legal-and-ethical-considerations-in-this-new-frontier
  72. https://www.mondaylabs.ai/blog/hipaa-gdpr-ai-building-compliant-healthcare-systems-in-the-age-of-automation
  73. https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence
  74. https://www.mintur.gob.es/Publicaciones/Publicacionesperiodicas/EconomiaIndustrial/RevistaEconomiaIndustrial/423/SA%CC%81NCHEZ%20ROSADO%20Y%20DI%CC%81EZ%20PARRA.pdf
  75. https://www.negligenciamedica.madrid/uso-indebido-de-inteligencia-artificial-en-diagnostico-medico/
  76. https://www.navarra.es/es/-/nota-prensa/navarra-crea-el-comite-de-etica-de-la-oficina-del-dato-para-garantizar-la-transparencia-en-el-uso-y-desarrollo-de-la-ia
  77. https://www.aepd.es/documento/premio-emilio-aced-2022-guillermo-lazcoz.pdf
  78. https://gacetamedica.com/profesion/responsabilidad-civil-inteligencia-artificial-uniteco/
  79. https://comc-es.org/la-ia-en-el-ambito-sanitario-hacia-una-medicina-mas-predictiva-y-personalizada/
  80. https://www.unia.es/vida-universitaria/blog/legislacion-de-la-inteligencia-artificial-en-el-ambito-sanitario
  81. https://foretica.org/blog/2021/10/comite-de-etica-de-inteligencia-artificial-de-mutualidad-de-la-abogacia/
  82. https://health.ec.europa.eu/ehealth-digital-health-and-care/artificial-intelligence-healthcare_es
  83. https://www.fesemi.org/informacion/prensa/semi/medicos-internistas-piden-una-aplicacion-responsable-y-etica-de-la-ia-basada
  84. https://www.unilim.fr/trahs/index.php?id=6349&lang=fr
  85. https://www.unia.es/vida-universitaria/blog/inteligencia-artificial-en-la-medicina-el-futuro-de-la-salud
  86. https://www.immedicohospitalario.es/noticia/42601/medicos-internistas-reclaman-una-aplicacion-responsable-y-etica-de.html
  87. https://www.ibm.com/mx-es/think/topics/ai-ethics
  88. https://www.mapfre.com/actualidad/innovacion/inteligencia-artificial-salud/
  89. https://www.editorialreus.es/media/pdf/primeraspaginas_9788429027969_riesgos-del-uso-de-algoritmos.pdf
  90. https://www.fundacionseres.org/Lists/Informes/Attachments/1158/InformeEticaIA_Un%20reto%20estrat%C3%A9gico%20para%20las%20empresas%20y%20la%20sociedad.pdf
  91. https://www.immedicohospitalario.es/noticia/50717/la-semg-catalunya-impulsa-la-formacion-en-ia-para-medicos-de-ap.html
  92. https://saludconectada.com/el-impacto-de-la-ia-hacia-un-consentimiento-informado-simple-y-accesible/
  93. https://www.reviewofailaw.com/Tool/Evidenza/Single/view_html?id_evidenza=3129
  94. https://www.healthnology.es/pueden-los-algoritmos-influir-en-tratamientos-medicos/
  95. https://www.ecija.com/actualidad-insights/la-inteligencia-artificial-en-el-diagnostico-medico/
  96. https://www.nature.com/articles/s41599-023-02565-2
  97. https://mapa.innobasque.eus/casos-practicos/asociacion-instituto-de-investigacion-sanitaria-biocruces-bizkaia_mejorando-la-legibilidad-y-comprension-de-los-documentos-de-consentimiento-informado-mediante-herramientas-de-inteligencia-artificial
  98. https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-spain
  99. https://focalx.ai/es/inteligencia-artificial-es/ia-con-supervision-humana-equilibrio-entre-autonomia-y-control/
  100. https://www.otrosi.net/el-uso-de-la-ia-en-el-sector-sanitario-debe-estar-siempre-controlado-por-un-profesional-medico/
  101. https://eithealth.eu/news-article/eit-health-calls-for-the-responsible-use-of-ai-in-healthcare/
  102. https://radarhealthcare.sdli.es/2024/11/07/ia-reescribe-los-documentos-de-consentimiento-informado-haciendo-su-lectura-mas-facil/
  103. https://www.revclinesp.es/en-ethics-artificial-intelligence-articulo-S2254887424000213
  104. https://www.unia.es/vida-universitaria/blog/la-ia-esta-sustituyendo-medicos-en-hospitales-realidad-o-ficcion
  105. https://artificialintelligenceact.eu/es/article/61/
  106. https://www.elsevier.es/es-revista-journal-healthcare-quality-research-257-avance-resumen-ethical-challenges-ai-based-innovation-in-S260364792500017X
  107. https://www.icomem.es/comunicacion/noticias/4766/Expertos-advierten-la-IA-ya-esta-cambiando-la-sanidad
  108. https://pro.campus.sanofi/dam/Portal/Spain/formacion/Campus-IA/agente-ia-redaccion-consentimientos-informados-medicina/guia-agente-ia-redaccion-consentimientos-informados-medicina.pdf
  109. https://www.lamoncloa.gob.es/lang/en/gobierno/councilministers/paginas/2024/20240514-council-press-conference.aspx
  110. https://www.newmedicaleconomics.es/ia-y-datos-casos-de-exito-del-sns-2/
  111. https://repositori.uji.es/bitstreams/fe19e25e-5447-4cfb-9dbb-d5e6a35a363d/download
  112. https://www.describehw.com/post/historias-cl%C3%ADnicas-e-inteligencia-artificial
  113. https://epsir.net/index.php/epsir/article/view/896
  114. http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S2014-98322024000200002
  115. https://www.itmastersmag.com/inteligencia-artificial/etica-en-la-ai-claves-para-su-implementacion-responsable/
  116. https://www.tucuvi.com/es/blog/ethical-ai-in-healthcare-tucuvis-commitment-to-responsible-innovation
  117. https://es.linkedin.com/pulse/casos-de-%C3%A9xito-c%C3%B3mo-los-hospitales-en-espa%C3%B1a-est%C3%A1n-transformando-gchde
  118. https://botpress.com/es/blog/generative-ai-use-cases-in-healthcare
  119. https://www.pwc.es/es/publicaciones/tecnologia/assets/guia-buenas-practicas-uso-inteligencia-artificial-pwc-odiseia.pdf
  120. https://virtuabarcelona.com/2025/05/05/inteligencia-artificial-en-medicina-el-amanecer-del-doctor-ia-o-una-frontera-peligrosa/
  121. https://itsit.es/ia-en-medicina-casos-de-exito/
  122. https://www.laborhospitalaria.com/consideraciones-eticas-legales-y-sociales-para-el-uso-de-la-inteligencia-artificial-en-investigacion-y-atravesada-por-la-complejidad-y-la-ambiguedad/
  123. https://isanidad.com/338795/como-sanar-el-sistema-sanitario-con-inteligencia-artificial-cinco-casos-de-uso-reales/
  124. https://www.sap.com/spain/resources/what-is-ai-ethics

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *