OPE 2025 TFA INF. Tema 75. Inteligencia Artificial (IA). Modelos interpretables vs modelos no interpretables: características, utilidades, ventajas e inconvenientes de cada tipo. Principales modelos y algoritmos de Machine Learning: algoritmos basados en funciones (regresión lineal, regresión logística, métodos polinómicos), algoritmos basados en árboles (árboles de clasificación, árboles de regresión), algoritmos basados en reglas (reglas de clasificación, reglas de asociación), redes neuronales y el caso particular de deep learning. Técnicas de selección de características y técnicas de extracción de características. Técnicas descriptivas y técnicas predictivas. Aplicaciones de la IA en Salud. Ley de Inteligencia Artificial de la UE.

Servicio Andaluz de Salud EXAMEN INFORMÁTICA JUNTA DE ANDALUCÍA TFA INFORMÁTICA (P) Exámenes SAS 2025 TFA INFORMÁTICA
Tema 75 – Inteligencia Artificial: Modelos, Algoritmos y Aplicaciones en Salud
TEMA 75

Inteligencia Artificial (IA)

Modelos, Algoritmos de Machine Learning, Deep Learning, Aplicaciones en Salud y Marco Regulatorio Europeo

📌 Resumen Ejecutivo

La Inteligencia Artificial representa uno de los avances tecnológicos más transformadores del siglo XXI. Este tema aborda los fundamentos de la IA moderna, desde la distinción entre modelos interpretables y no interpretables hasta los principales algoritmos de Machine Learning, incluyendo métodos de regresión, árboles de decisión, redes neuronales y Deep Learning. Se analizan técnicas de selección y extracción de características, aplicaciones en el sector salud y el marco regulatorio establecido por la Ley de IA de la Unión Europea, primera normativa mundial sobre inteligencia artificial.

1. Introducción a la Inteligencia Artificial

La Inteligencia Artificial (IA) es una disciplina de las ciencias de la computación que busca crear sistemas capaces de realizar tareas que tradicionalmente requieren inteligencia humana. Estas tareas incluyen el reconocimiento de patrones, la toma de decisiones, el procesamiento del lenguaje natural y el aprendizaje a partir de la experiencia.

En la actualidad, el término IA engloba múltiples subdisciplinas, siendo el Machine Learning (aprendizaje automático) y el Deep Learning (aprendizaje profundo) las áreas más relevantes y de mayor aplicación práctica. La IA moderna se basa en algoritmos capaces de aprender de los datos sin ser explícitamente programados para cada situación específica.

El desarrollo de la IA ha experimentado un crecimiento exponencial en los últimos años, impulsado por tres factores fundamentales: la disponibilidad de grandes volúmenes de datos, el aumento de la capacidad computacional (especialmente mediante GPUs) y los avances en algoritmos de aprendizaje automático. Esta confluencia ha permitido aplicaciones revolucionarias en sectores como la salud, el transporte, las finanzas y la administración pública.

ℹ️ Nota técnica: Machine Learning es un subconjunto de la IA que permite a las máquinas aprender de los datos. Deep Learning, a su vez, es un subconjunto del Machine Learning que utiliza redes neuronales profundas con múltiples capas de procesamiento.

2. Modelos Interpretables vs Modelos No Interpretables

2.1. Concepto de Interpretabilidad

La interpretabilidad en IA se refiere a la capacidad de entender y explicar cómo un modelo llega a sus decisiones. Según investigadores de Stanford, existen tres tipos principales de interpretabilidad: interpretabilidad de ingenieros (cómo funciona el modelo), interpretabilidad causal (por qué produce resultados específicos) e interpretabilidad que induce confianza (explicaciones comprensibles para usuarios no técnicos).

La interpretabilidad no debe confundirse con la explicabilidad. Un modelo interpretable es comprensible por sí mismo debido a su simplicidad estructural, mientras que un modelo explicable puede requerir técnicas adicionales para generar explicaciones sobre modelos complejos que no son intrínsecamente transparentes.

2.2. Modelos Interpretables

Los modelos interpretables son aquellos cuyo funcionamiento interno es transparente y fácil de entender. Estos modelos permiten a los usuarios seguir el proceso de razonamiento que conduce a una predicción o decisión específica.

✅ Características principales:
  • Transparencia: El proceso de decisión es visible y comprensible
  • Simplicidad estructural: Arquitectura y parámetros limitados
  • Trazabilidad: Se puede seguir el camino de cada variable hasta la predicción final
  • Validación directa: Los expertos pueden verificar la lógica del modelo

Ejemplos de modelos interpretables:

  • Regresión lineal: Utiliza coeficientes ponderados que muestran claramente la contribución de cada variable
  • Regresión logística: Similar a la regresión lineal pero para clasificación binaria
  • Árboles de decisión simples: Estructura de diagrama de flujo que muestra visualmente las reglas de decisión
  • Reglas de asociación: Expresan relaciones del tipo «si-entonces» comprensibles

Ventajas: Facilitan la auditoría y cumplimiento normativo, generan confianza en usuarios no técnicos, permiten identificar sesgos fácilmente y son adecuados para sectores regulados como salud y finanzas.

Inconvenientes: Limitación en la capacidad predictiva para problemas complejos, menor precisión en comparación con modelos complejos, dificultad para capturar relaciones no lineales sofisticadas y restricciones en el manejo de datos no estructurados.

2.3. Modelos No Interpretables

Los modelos no interpretables, también llamados «cajas negras», son sistemas cuyo funcionamiento interno resulta opaco y difícil de comprender. A pesar de su complejidad, estos modelos suelen ofrecer un rendimiento superior en tareas complejas.

⚠️ Importante: La complejidad no es sinónimo de falta de interpretabilidad absoluta. Las redes neuronales profundas con millones de parámetros pueden ser difíciles de interpretar, pero técnicas como SHAP (Shapley Additive Explanations) y LIME (Local Interpretable Model-agnostic Explanations) permiten generar explicaciones post-hoc sobre sus decisiones.

Ejemplos de modelos no interpretables:

  • Redes neuronales profundas (Deep Learning): Múltiples capas de procesamiento con millones de parámetros
  • Ensemble methods complejos: Random Forest con cientos de árboles, Gradient Boosting
  • Support Vector Machines con kernel complejo: Transformaciones no lineales difíciles de visualizar
  • Redes neuronales convolucionales: Especializadas en procesamiento de imágenes

Ventajas: Mayor precisión y rendimiento en tareas complejas, capacidad para detectar patrones sutiles en grandes volúmenes de datos, excelente desempeño en datos no estructurados (imágenes, audio, texto) y capacidad de generalización superior.

Inconvenientes: Dificultad para justificar decisiones en contextos críticos, mayor riesgo de incorporar sesgos ocultos, requisitos computacionales elevados, necesidad de grandes cantidades de datos de entrenamiento y complejidad en la depuración de errores.

2.4. Tabla Comparativa

Característica Modelos Interpretables Modelos No Interpretables
Transparencia Alta – proceso visible Baja – caja negra
Precisión Media – limitada en problemas complejos Alta – superior en tareas sofisticadas
Complejidad Baja – estructura simple Alta – múltiples capas y parámetros
Requisitos de datos Moderados – funcionan con datasets pequeños Altos – requieren grandes volúmenes
Recursos computacionales Bajos – ejecución en hardware convencional Altos – requieren GPUs especializadas
Tiempo de entrenamiento Rápido – minutos u horas Lento – horas o días
Cumplimiento regulatorio Fácil – auditable directamente Complejo – requiere técnicas adicionales
Confianza del usuario Alta – decisiones comprensibles Variable – depende de explicaciones

3. Principales Modelos y Algoritmos de Machine Learning

El Machine Learning abarca una amplia variedad de algoritmos que pueden clasificarse según su enfoque matemático y estructura. A continuación se analizan las categorías principales utilizadas en la práctica profesional actual.

3.1. Algoritmos Basados en Funciones

Estos algoritmos modelan la relación entre variables mediante funciones matemáticas que minimizan un error o distancia entre las predicciones y los valores reales.

3.1.1. Regresión Lineal

La regresión lineal es uno de los algoritmos fundamentales del aprendizaje supervisado. Establece una relación lineal entre variables independientes (features) y una variable dependiente continua (target). El modelo busca la recta de mejor ajuste que minimiza la suma de errores cuadráticos.

Fórmula básica: y = β₀ + β₁x₁ + β₂x₂ + … + βₙxₙ + ε

Donde β₀ es el intercepto, β₁…βₙ son los coeficientes de las variables independientes y ε representa el error residual.

Aplicaciones: Predicción de precios inmobiliarios, pronóstico de ventas, estimación de demanda de recursos sanitarios, análisis de tendencias temporales.

Ventajas: Simplicidad de implementación, interpretabilidad directa de coeficientes, rapidez computacional, requisitos mínimos de datos.

Limitaciones: Asume linealidad entre variables, sensible a valores atípicos, no captura relaciones complejas, puede sufrir de multicolinealidad.

3.1.2. Regresión Logística

A pesar de su nombre, la regresión logística es un algoritmo de clasificación binaria ampliamente utilizado. Aplica la función sigmoide para transformar una combinación lineal de variables en probabilidades entre 0 y 1.

Función sigmoide: P(y=1|x) = 1 / (1 + e^(-z)), donde z = β₀ + β₁x₁ + … + βₙxₙ

Aplicaciones: Detección de spam en correos electrónicos, diagnóstico de enfermedades (presencia/ausencia), predicción de abandono de clientes (churn), evaluación de riesgo crediticio.

Ventajas: Proporciona probabilidades interpretables, eficiente computacionalmente, no requiere escalado de variables, robusto frente a ruido.

Extensiones: Regresión logística multinomial para clasificación multiclase, regresión ordinal para categorías con orden natural.

3.1.3. Métodos Polinómicos

Los métodos polinómicos extienden la regresión lineal incorporando términos polinómicos de las variables independientes. Permiten modelar relaciones no lineales manteniendo la estructura básica de los modelos lineales.

Ejemplo de regresión polinómica de grado 2: y = β₀ + β₁x + β₂x² + ε

Aplicaciones: Modelado de curvas de crecimiento, análisis de respuesta dosis-efecto en farmacología, ajuste de tendencias no lineales.

⛔ Advertencia: Los modelos polinómicos de grado elevado pueden sufrir de sobreajuste (overfitting), ajustándose excesivamente a los datos de entrenamiento y perdiendo capacidad de generalización. Es fundamental validar con datos independientes y aplicar técnicas de regularización.

3.2. Algoritmos Basados en Árboles

Los algoritmos basados en árboles dividen recursivamente el espacio de características mediante reglas de decisión, creando estructuras jerárquicas que facilitan la interpretación.

3.2.1. Árboles de Clasificación

Los árboles de clasificación (Classification Trees) asignan cada observación a una clase discreta mediante una serie de preguntas binarias. Cada nodo interno representa una prueba sobre un atributo, cada rama representa el resultado de la prueba y cada hoja representa una etiqueta de clase.

Criterios de división comunes:

  • Índice Gini: Mide la impureza de un nodo (probabilidad de clasificación incorrecta)
  • Entropía (ganancia de información): Mide el desorden o incertidumbre
  • Error de clasificación: Proporción de observaciones mal clasificadas

Ventajas: Visualización intuitiva mediante diagramas, no requieren normalización de datos, manejan variables numéricas y categóricas, capturan interacciones entre variables automáticamente.

Aplicaciones: Diagnóstico médico (sistemas de apoyo a la decisión), aprobación de créditos, segmentación de clientes, detección de fraudes.

3.2.2. Árboles de Regresión

Los árboles de regresión predicen valores continuos en lugar de clases discretas. En cada nodo hoja se asigna un valor numérico, típicamente la media de los valores de entrenamiento que alcanzan ese nodo.

Criterio de división: Minimización del error cuadrático medio (MSE) o error absoluto medio (MAE).

Aplicaciones: Predicción de estancias hospitalarias, estimación de costes de tratamientos, pronóstico de valores de laboratorio.

3.2.3. Métodos Ensemble: Random Forest

Random Forest es un método ensemble que construye múltiples árboles de decisión durante el entrenamiento y combina sus predicciones mediante votación (clasificación) o promedio (regresión). Introduce aleatoriedad seleccionando subconjuntos aleatorios de observaciones (bootstrap) y características.

Ventajas sobre árboles individuales: Reduce significativamente el overfitting, mayor estabilidad y robustez, maneja mejor datasets grandes, proporciona medidas de importancia de variables.

Parámetros clave: Número de árboles (típicamente 100-500), profundidad máxima de árboles, número de características consideradas en cada división.

3.3. Algoritmos Basados en Reglas

Los algoritmos basados en reglas expresan el conocimiento mediante conjuntos de reglas del tipo «SI condición ENTONCES conclusión», facilitando la interpretación humana.

3.3.1. Reglas de Clasificación

Las reglas de clasificación asignan observaciones a clases mediante condiciones lógicas sobre los atributos. Ejemplo: «SI edad > 65 Y presión_arterial > 140 ENTONCES riesgo_cardiovascular = ALTO».

Métodos de generación: Extracción de reglas desde árboles de decisión, algoritmos RIPPER (Repeated Incremental Pruning to Produce Error Reduction), sistemas expertos basados en conocimiento.

Ventajas: Máxima interpretabilidad, integración con conocimiento experto, fácil validación por profesionales del dominio.

3.3.2. Reglas de Asociación

Las reglas de asociación descubren relaciones interesantes entre variables en grandes bases de datos. Son fundamentales en análisis de cestas de compra y patrones de comportamiento.

Métricas principales:

  • Soporte: Frecuencia de aparición conjunta de ítems
  • Confianza: Probabilidad condicional de que ocurra Y dado X
  • Lift: Fuerza de la asociación comparada con la independencia

Algoritmos destacados: Apriori (búsqueda de conjuntos frecuentes), FP-Growth (árbol de patrones frecuentes), Eclat (búsqueda en profundidad).

Aplicaciones en salud: Identificación de combinaciones de síntomas, patrones de prescripción médica, comorbilidades frecuentes, efectos adversos de medicamentos.

3.4. Redes Neuronales

Las redes neuronales artificiales son modelos computacionales inspirados en el funcionamiento del cerebro humano. Están compuestas por capas de nodos (neuronas) interconectadas que procesan información mediante funciones de activación no lineales.

3.4.1. Arquitectura Básica

Una red neuronal típica consta de tres tipos de capas:

  • Capa de entrada: Recibe las características del problema
  • Capas ocultas: Procesan y transforman la información (pueden ser múltiples)
  • Capa de salida: Produce la predicción o clasificación final

Cada conexión entre neuronas tiene un peso que se ajusta durante el entrenamiento mediante el algoritmo de retropropagación (backpropagation) y optimizadores como SGD (Stochastic Gradient Descent) o Adam.

3.4.2. Funciones de Activación

Las funciones de activación introducen no linealidad en la red, permitiendo aprender patrones complejos:

  • Sigmoid: σ(x) = 1/(1+e^-x), rango [0,1]
  • Tanh: tanh(x), rango [-1,1]
  • ReLU (Rectified Linear Unit): f(x) = max(0,x), más utilizada actualmente
  • Softmax: Para clasificación multiclase en la capa de salida

3.4.3. Tipos de Redes Neuronales

  • Perceptrón Multicapa (MLP): Red feedforward básica con capas completamente conectadas
  • Redes Neuronales Convolucionales (CNN): Especializadas en procesamiento de imágenes
  • Redes Neuronales Recurrentes (RNN): Para datos secuenciales y series temporales
  • Long Short-Term Memory (LSTM): Variante de RNN que maneja dependencias a largo plazo
  • Transformers: Arquitectura moderna basada en mecanismos de atención

4. Deep Learning: El Caso Particular

El Deep Learning (aprendizaje profundo) es un subconjunto del Machine Learning que utiliza redes neuronales artificiales con múltiples capas de procesamiento (típicamente más de 3 capas ocultas). Esta profundidad permite al modelo aprender representaciones jerárquicas de los datos, desde características simples hasta conceptos abstractos complejos.

4.1. Diferencias Clave con Machine Learning Tradicional

Aspecto Machine Learning Tradicional Deep Learning
Extracción de características Manual – requiere ingeniería de features Automática – aprende representaciones
Volumen de datos Funciona con datasets pequeños/medianos Requiere grandes volúmenes de datos
Hardware CPUs convencionales suficientes GPUs especializadas necesarias
Tiempo de entrenamiento Minutos a horas Horas a semanas
Rendimiento con más datos Mejora limitada tras cierto punto Mejora continua con más datos
Interpretabilidad Variable, generalmente mayor Baja – caja negra
Tipos de datos Mejor con datos estructurados Excelente con datos no estructurados

4.2. Ventajas del Deep Learning

✅ Beneficios principales:
  • Aprendizaje automático de características: No requiere ingeniería manual de features
  • Rendimiento superior: State-of-the-art en visión artificial, NLP y reconocimiento de voz
  • Escalabilidad: Mejora continua con más datos y recursos computacionales
  • Versatilidad: Aplicable a múltiples dominios con arquitecturas adaptables
  • Transfer Learning: Reutilización de modelos preentrenados para nuevas tareas

4.3. Aplicaciones Destacadas

  • Visión por computadora: Reconocimiento facial, detección de objetos, diagnóstico médico por imágenes
  • Procesamiento del lenguaje natural: Traducción automática, chatbots, análisis de sentimientos
  • Reconocimiento de voz: Asistentes virtuales, transcripción automática
  • Sistemas de recomendación: Personalización de contenidos y productos
  • Vehículos autónomos: Percepción del entorno y toma de decisiones
  • Descubrimiento de fármacos: Predicción de propiedades moleculares

5. Técnicas de Selección de Características

La selección de características (feature selection) es el proceso de identificar y seleccionar el subconjunto más relevante de variables de entrada para construir modelos predictivos. Reduce la dimensionalidad eliminando características redundantes o irrelevantes, mejorando el rendimiento del modelo y reduciendo el coste computacional.

5.1. Métodos de Filtro (Filter Methods)

Los métodos de filtro evalúan la relevancia de cada característica independientemente del algoritmo de aprendizaje, utilizando medidas estadísticas.

Técnicas principales:

  • Correlación de Pearson: Mide relaciones lineales entre variables continuas
  • Chi-cuadrado (χ²): Evalúa dependencia entre variables categóricas
  • ANOVA F-test: Compara medias entre grupos
  • Information Gain: Basado en reducción de entropía
  • Mutual Information: Mide dependencia mutua entre variables

Ventajas: Rápidos computacionalmente, independientes del modelo, escalables a grandes dimensionalidades.

Limitaciones: No consideran interacciones entre variables, pueden ignorar características útiles en combinación.

5.2. Métodos de Envoltura (Wrapper Methods)

Los métodos de envoltura evalúan subconjuntos de características entrenando el modelo y midiendo su rendimiento. Buscan el subconjunto óptimo mediante búsqueda heurística.

Técnicas principales:

  • Forward Selection: Añade características una a una
  • Backward Elimination: Elimina características una a una
  • Recursive Feature Elimination (RFE): Elimina recursivamente las características menos importantes
  • Búsqueda exhaustiva: Evalúa todas las combinaciones posibles (costoso)

Ventajas: Consideran interacciones entre variables, optimizados para el modelo específico, generalmente mejor rendimiento.

Limitaciones: Computacionalmente costosos, riesgo de overfitting, no escalables a alta dimensionalidad.

5.3. Métodos Embebidos (Embedded Methods)

Los métodos embebidos realizan la selección de características durante el proceso de entrenamiento del modelo, integrando ambos procesos.

Técnicas principales:

  • LASSO (Least Absolute Shrinkage and Selection Operator): Regularización L1 que fuerza algunos coeficientes a cero
  • Ridge Regression: Regularización L2 que reduce magnitud de coeficientes
  • Elastic Net: Combinación de L1 y L2
  • Importancia de características en Random Forest: Mide la contribución de cada variable
  • Regularización en redes neuronales: Dropout, weight decay

Ventajas: Balance entre precisión y eficiencia computacional, integración natural con el entrenamiento, control del overfitting.

6. Técnicas de Extracción de Características

La extracción de características (feature extraction) transforma las características originales en un nuevo espacio de menor dimensión, creando nuevas variables que capturan la información más relevante. A diferencia de la selección, crea nuevas características en lugar de seleccionar existentes.

6.1. Análisis de Componentes Principales (PCA)

PCA es la técnica de extracción más utilizada. Transforma las variables originales en nuevos componentes principales no correlacionados, ordenados por la cantidad de varianza que explican. Los primeros componentes capturan la mayor parte de la información.

Proceso:

  1. Estandarización de variables
  2. Cálculo de la matriz de covarianza
  3. Obtención de vectores y valores propios
  4. Selección de componentes principales
  5. Transformación de datos originales

Aplicaciones: Visualización de datos multidimensionales, reducción de ruido, compresión de imágenes, preprocesamiento para otros algoritmos.

Limitaciones: Asume relaciones lineales, los componentes pierden interpretabilidad original, sensible a escala de variables.

6.2. Otras Técnicas de Extracción

  • t-SNE (t-Distributed Stochastic Neighbor Embedding): Visualización de datos de alta dimensión en 2D/3D
  • LDA (Linear Discriminant Analysis): Maximiza separabilidad entre clases
  • Autoencoders: Redes neuronales para aprendizaje de representaciones comprimidas
  • SVD (Singular Value Decomposition): Descomposición matricial para reducción de dimensionalidad
  • GLCM (Grey Level Co-occurrence Matrix): Extracción de características de textura en imágenes
  • LBP (Local Binary Patterns): Descriptores de textura local
ℹ️ Diferencia clave: La selección de características mantiene las variables originales (interpretabilidad), mientras que la extracción crea nuevas variables combinadas (mejor representación pero menor interpretabilidad).

7. Técnicas Descriptivas y Técnicas Predictivas

Los algoritmos de Machine Learning pueden clasificarse según su objetivo principal en técnicas descriptivas (no supervisadas) y técnicas predictivas (supervisadas).

7.1. Técnicas Descriptivas (Aprendizaje No Supervisado)

Las técnicas descriptivas buscan patrones, estructuras o agrupaciones en datos sin etiquetas. No tienen variable objetivo predefinida.

Algoritmos principales:

  • K-Means Clustering: Agrupa observaciones en k clusters minimizando varianza intra-cluster
  • Clustering Jerárquico: Crea una jerarquía de clusters mediante dendrogramas
  • DBSCAN: Clustering basado en densidad, identifica clusters de forma arbitraria
  • Algoritmos de reducción de dimensionalidad: PCA, t-SNE, UMAP
  • Reglas de asociación: Descubrimiento de patrones frecuentes
  • Detección de anomalías: Isolation Forest, One-Class SVM

Aplicaciones en salud: Segmentación de pacientes por similitud clínica, identificación de subgrupos de enfermedades, detección de patrones en historiales médicos, agrupación de fármacos por efectos similares.

7.2. Técnicas Predictivas (Aprendizaje Supervisado)

Las técnicas predictivas aprenden de datos etiquetados para predecir valores de una variable objetivo en nuevos datos.

Tipos según la variable objetivo:

  • Clasificación: Variable objetivo categórica (binaria o multiclase)
  • Regresión: Variable objetivo continua numérica

Algoritmos de clasificación: Regresión logística, árboles de decisión, Random Forest, SVM, redes neuronales, Naive Bayes, K-Nearest Neighbors.

Algoritmos de regresión: Regresión lineal, regresión polinómica, árboles de regresión, Random Forest regressor, redes neuronales, SVR (Support Vector Regression).

Aplicaciones en salud: Predicción de riesgo de enfermedades, diagnóstico automatizado, pronóstico de supervivencia, predicción de reingresos hospitalarios, estimación de costes de tratamiento.

8. Aplicaciones de la IA en Salud

El sector sanitario ha experimentado una transformación significativa gracias a la aplicación de tecnologías de IA. En 2024-2025, las aplicaciones han alcanzado madurez suficiente para implementación clínica real, mejorando diagnósticos, tratamientos y gestión hospitalaria.

8.1. Diagnóstico Médico Asistido por IA

Los sistemas de IA han superado en algunos casos a especialistas experimentados en la detección de enfermedades mediante análisis de imágenes médicas.

Radiología y diagnóstico por imagen:

  • Detección de cáncer de piel: En 2024, sistemas de IA alcanzaron precisión superior al 95% en identificación de melanoma mediante análisis dermatoscópico, reduciendo significativamente falsos positivos y negativos
  • Mamografías: Algoritmos de deep learning detectan cáncer de mama con precisión comparable a radiólogos, reduciendo tiempo de lectura
  • Tomografías y resonancias: Identificación automática de nódulos pulmonares, hemorragias cerebrales, fracturas óseas
  • Oftalmología: Detección de retinopatía diabética y degeneración macular relacionada con la edad

Patología digital: Análisis de biopsias y muestras histopatológicas para detectar células cancerosas y clasificar tumores con alta precisión.

8.2. Detección Precoz de Enfermedades

La IA permite identificar signos tempranos de enfermedades antes de que aparezcan síntomas clínicos evidentes.

Alzheimer y enfermedades neurodegenerativas: En 2024 se realizaron avances significativos utilizando IA para detectar Alzheimer temprano mediante análisis de resonancias magnéticas y datos genéticos. Algoritmos avanzados identifican cambios estructurales cerebrales mucho antes de síntomas clínicos, mejorando la precisión de detección temprana en un 30% comparado con métodos convencionales.

Enfermedades cardiovasculares: Modelos predictivos analizan electrocardiogramas, presión arterial, biomarcadores y factores de riesgo para estimar probabilidad de eventos cardiovasculares.

Diabetes: Predicción de desarrollo de diabetes tipo 2 basada en datos clínicos, genéticos y de estilo de vida.

8.3. Asistentes Virtuales y Evaluadores de Síntomas

Los chatbots y asistentes médicos virtuales mejoran la accesibilidad y agilizan la atención sanitaria.

Ejemplo destacado: La aplicación MAPFRE Salud ha incorporado un evaluador de síntomas basado en IA que permite al paciente obtener recomendaciones sobre el especialista adecuado según la descripción de síntomas. Esto proporciona una base sobre la que el médico puede trabajar de manera más eficiente, tratando dolencias más ágilmente.

Funcionalidades: Triaje automático de pacientes, recomendaciones de autocuidado, recordatorios de medicación, respuestas a consultas frecuentes 24/7.

8.4. Telemedicina y Telerrehabilitación

La IA potencia servicios de atención médica remota con monitorización continua y personalización de tratamientos.

Fisioterapia digital: Iniciativas como la colaboración entre MAPFRE y Trak desarrollan fisioterapia digital basada en prescripción de ejercicios y monitorización asistida con IA. Los especialistas realizan seguimiento preciso sin visitas presenciales, reduciendo tasas de abandono del tratamiento.

Monitorización remota de pacientes: Dispositivos wearables y sensores IoT conectados a sistemas de IA analizan constantes vitales en tiempo real, alertando ante anomalías.

8.5. Descubrimiento y Desarrollo de Fármacos

La IA acelera significativamente el proceso de investigación farmacéutica, tradicionalmente largo y costoso.

Aplicaciones:

  • Predicción de propiedades moleculares: Deep learning predice eficacia, toxicidad y efectos secundarios de compuestos
  • Diseño de moléculas: Generación de nuevas estructuras moleculares con propiedades deseadas
  • Identificación de dianas terapéuticas: Análisis de datos genómicos para encontrar objetivos farmacológicos
  • Reposicionamiento de fármacos: Identificación de nuevos usos para medicamentos existentes

8.6. Automatización de Procesos Administrativos

La IA mejora la eficiencia operacional de centros sanitarios mediante digitalización y automatización.

Gestión de reembolsos: MAPFRE ha automatizado la captura de información y gestión de reembolsos con IA generativa en su aplicación de salud, mejorando tiempos de respuesta y generando eficiencia operacional.

Digitalización de documentos médicos: OCR inteligente extrae información de informes clínicos, recetas y resultados de laboratorio.

Optimización de recursos: Predicción de demanda de camas hospitalarias, gestión de quirófanos, planificación de turnos del personal sanitario.

8.7. Medicina Personalizada y Genómica

La IA analiza grandes cantidades de datos genómicos para personalizar tratamientos según el perfil genético individual.

Aplicaciones: Predicción de respuesta a tratamientos oncológicos, selección de terapias farmacológicas personalizadas, identificación de mutaciones genéticas asociadas a enfermedades.

✅ Beneficios de la IA en salud:
  • Mejora de precisión diagnóstica y reducción de errores médicos
  • Detección temprana de enfermedades mejorando pronósticos
  • Optimización de recursos sanitarios y reducción de costes
  • Personalización de tratamientos según características individuales
  • Accesibilidad mejorada mediante telemedicina y asistentes virtuales
  • Liberación de tiempo médico para atención directa al paciente

9. Ley de Inteligencia Artificial de la Unión Europea

El Reglamento (UE) 2024/1689 de Inteligencia Artificial, aprobado por el Parlamento Europeo el 13 de marzo de 2024 y en vigor desde el 1 de agosto de 2024, constituye la primera normativa jurídica del mundo sobre inteligencia artificial. Representa un hito regulatorio global estableciendo un marco común para garantizar que los sistemas de IA se desarrollen y utilicen de manera responsable, segura, ética y fiable.

9.1. Objetivos y Ámbito de Aplicación

La Ley de IA surge en el marco de la estrategia Década Digital 2030 de la Comisión Europea con objetivos fundamentales:

  • Garantizar un nivel elevado de protección de salud, seguridad y derechos fundamentales recogidos en la Carta de los Derechos Fundamentales de la UE
  • Mitigar riesgos asociados a sistemas de IA para ciudadanos europeos
  • Promover la innovación responsable y adopción de IA ética
  • Fomentar la confianza en tecnologías de IA mediante transparencia
  • Establecer un mercado único digital armonizado en la UE

Ámbito: Abarca todos los sectores excepto el militar, aplicándose a proveedores y responsables del despliegue de sistemas de IA en el mercado único europeo.

9.2. Enfoque Basado en Riesgos

La Ley de IA clasifica los sistemas según su nivel de riesgo, estableciendo requisitos proporcionales:

⛔ NIVEL 1 – SISTEMAS PROHIBIDOS:

Sistemas de IA considerados amenaza inaceptable para seguridad, derechos o medios de subsistencia de las personas. Incluyen:

  • Manipulación cognitiva conductual que cause daños
  • Explotación de vulnerabilidades de grupos específicos
  • Puntuación social por autoridades públicas
  • Sistemas de identificación biométrica remota en tiempo real en espacios públicos (con excepciones limitadas)
  • Sistemas de categorización biométrica basados en características sensibles
⚠️ NIVEL 2 – ALTO RIESGO:

Sistemas que pueden afectar significativamente a salud, seguridad o derechos fundamentales. Deben cumplir obligaciones y requisitos estrictos antes de acceder al mercado:

  • Infraestructuras críticas: Gestión de tráfico, suministro agua/gas/electricidad
  • Educación y formación: Evaluación de estudiantes, acceso a instituciones educativas
  • Empleo: Selección de personal, evaluación de rendimiento, decisiones sobre promociones
  • Servicios esenciales: Evaluación de crédito, puntuación de seguros
  • Aplicación de la ley: Análisis de evidencias, evaluación de riesgos de criminalidad
  • Migración y asilo: Evaluación de solicitudes
  • Administración de justicia: Asistencia en interpretación de ley
  • Productos médicos y sanitarios: Diagnóstico, predicción de riesgos, decisiones terapéuticas
  • Conducción autónoma: Vehículos sin conductor

9.3. Requisitos para Sistemas de Alto Riesgo

Los sistemas de IA de alto riesgo deben cumplir requisitos exhaustivos:

  • Sistema de gestión de riesgos: Identificación y mitigación continua de riesgos
  • Gobernanza de datos: Datos de entrenamiento relevantes, representativos, libres de sesgos
  • Documentación técnica: Información detallada sobre diseño, desarrollo y funcionamiento
  • Registro automático de eventos (logs): Trazabilidad de operaciones
  • Transparencia e información a usuarios: Instrucciones claras de uso
  • Supervisión humana: Mecanismos de control y supervisión efectiva
  • Exactitud, robustez y ciberseguridad: Rendimiento adecuado y protección contra amenazas
  • Evaluación de conformidad: Certificación antes de comercialización

9.4. Sistemas de Riesgo Limitado y Mínimo

ℹ️ NIVEL 3 – RIESGO LIMITADO:

Sistemas permitidos con obligaciones de transparencia para que usuarios sepan que interactúan con IA:

  • Chatbots y asistentes virtuales
  • Sistemas de generación de contenido (deep fakes)
  • Sistemas de reconocimiento de emociones

Obligación principal: Informar claramente al usuario sobre la naturaleza artificial del sistema.

✅ NIVEL 4 – RIESGO MÍNIMO:

La gran mayoría de sistemas de IA (videojuegos, filtros de spam, sistemas de recomendación simples) no se regulan específicamente. Se fomenta la adopción voluntaria de códigos de conducta.

9.5. Sistemas de IA de Propósito General (GPAI)

Los modelos de IA de propósito general (GPAI) tienen capacidad de realizar tareas muy diversas y pueden integrarse en múltiples aplicaciones (generación de texto, reconocimiento de imágenes, etc.).

Obligaciones básicas: Documentación técnica, políticas de cumplimiento de copyright, resúmenes de datos de entrenamiento.

Modelos con riesgos sistémicos: Aquellos con capacidades de alto impacto deben cumplir normas más estrictas, incluyendo evaluaciones de riesgos, medidas de mitigación, pruebas adversariales y reporte de incidentes graves.

9.6. Gobernanza y Cumplimiento

El Reglamento establece estructuras de gobernanza para aplicación efectiva:

  • Oficina Europea de IA: Coordinación a nivel europeo
  • Autoridades nacionales de supervisión: Control en cada Estado miembro
  • Comité Europeo de IA: Asesoramiento y armonización
  • Foro consultivo: Participación de stakeholders
  • Panel científico: Asesoramiento técnico independiente

Sanciones: El incumplimiento puede resultar en multas de hasta 35 millones de euros o el 7% de la facturación global anual (el importe mayor) para infracciones de prohibiciones, y hasta 15 millones o 3% de facturación para otras violaciones.

9.7. Calendario de Aplicación

  • Agosto 2024: Entrada en vigor del Reglamento
  • Febrero 2025: Prohibiciones aplicables
  • Agosto 2025: Códigos de conducta y reglas GPAI
  • Agosto 2026: Obligaciones para sistemas de alto riesgo
  • Agosto 2027: Aplicación completa para sistemas integrados en productos regulados

9.8. Implicaciones para el Sector Salud

La Ley de IA tiene impacto significativo en aplicaciones sanitarias:

  • La mayoría de sistemas de diagnóstico y decisión terapéutica se clasifican como alto riesgo
  • Requerirán evaluación de conformidad exhaustiva antes de implementación clínica
  • Obligación de documentar datos de entrenamiento y validación clínica
  • Necesidad de supervisión humana efectiva en decisiones críticas
  • Transparencia hacia pacientes sobre uso de IA en su atención
  • Trazabilidad completa de decisiones y recomendaciones generadas
⚠️ Consideración importante: El Reglamento busca equilibrio entre protección ciudadana e innovación tecnológica. Las organizaciones sanitarias deben prepararse para cumplimiento normativo mediante implementación de sistemas de gestión de riesgos, gobernanza de datos robusta y procesos de validación clínica rigurosos.

10. Mapa Conceptual – Inteligencia Artificial

📊 Estructura Jerárquica de Conceptos en IA

INTELIGENCIA ARTIFICIAL
Modelos Interpretables
Modelos No Interpretables
Machine Learning
Deep Learning
Algoritmos Basados en Funciones
Algoritmos Basados en Árboles
Algoritmos Basados en Reglas
Redes Neuronales
Regresión Lineal
Regresión Logística
Árboles de Decisión
Random Forest
Reglas de Clasificación
Reglas de Asociación
CNN
RNN
Selección de Características
Extracción de Características
Técnicas Descriptivas
Técnicas Predictivas
Aplicaciones en Salud
Ley IA UE

🏥 Sistemas Específicos en Salud

Diagnóstico por Imagen
Detección Precoz
Asistentes Virtuales
Telemedicina
Descubrimiento Fármacos
Medicina Personalizada

📖 Leyenda del Mapa Conceptual

Nivel 1: Concepto principal
Nivel 2: Categorías fundamentales
Nivel 3: Tipos de algoritmos
Nivel 4: Métodos específicos
Nivel 5: Técnicas y aplicaciones
Salud: Aplicaciones sanitarias específicas

11. Preguntas de Autoevaluación

📝 Test de Conocimientos – 25 Preguntas

Pregunta 1: ¿Qué característica define principalmente a un modelo interpretable de IA?

A) Mayor precisión en predicciones complejas
B) Transparencia y comprensibilidad del proceso de decisión
C) Requerimiento de grandes volúmenes de datos
D) Uso obligatorio de redes neuronales profundas
✓ Respuesta correcta: B) Transparencia y comprensibilidad del proceso de decisión

Argumentación: Los modelos interpretables se caracterizan precisamente por su transparencia, permitiendo entender cómo el modelo llega a sus decisiones. Su funcionamiento interno es visible y comprensible, facilitando la auditoría y validación por expertos.

Pregunta 2: ¿Cuál es la principal diferencia entre explicabilidad e interpretabilidad en IA?

A) Son conceptos idénticos sin diferencias
B) La interpretabilidad requiere técnicas adicionales para modelos complejos, la explicabilidad no
C) La interpretabilidad es inherente al modelo simple, la explicabilidad puede requerir técnicas post-hoc
D) La explicabilidad solo se aplica a modelos de deep learning
✓ Respuesta correcta: C) La interpretabilidad es inherente al modelo simple, la explicabilidad puede requerir técnicas post-hoc

Argumentación: Un modelo interpretable es comprensible por sí mismo debido a su simplicidad estructural (árboles simples, regresión lineal). La explicabilidad engloba tanto modelos interpretables como complejos que requieren técnicas adicionales (SHAP, LIME) para generar explicaciones.

Pregunta 3: ¿Qué algoritmo utiliza la función sigmoide para transformar valores en probabilidades entre 0 y 1?

A) Regresión lineal
B) Árboles de decisión
C) Regresión logística
D) K-Means clustering
✓ Respuesta correcta: C) Regresión logística

Argumentación: La regresión logística aplica la función sigmoide σ(x) = 1/(1+e^-x) para transformar una combinación lineal de variables en probabilidades entre 0 y 1, siendo fundamental para clasificación binaria.

Pregunta 4: ¿Qué técnica utiliza Random Forest para mejorar el rendimiento sobre árboles individuales?

A) Aumenta la profundidad de un único árbol
B) Construye múltiples árboles con subconjuntos aleatorios y combina predicciones
C) Aplica regularización L1 a los nodos
D) Utiliza únicamente backward elimination
✓ Respuesta correcta: B) Construye múltiples árboles con subconjuntos aleatorios y combina predicciones

Argumentación: Random Forest es un método ensemble que construye cientos de árboles utilizando bootstrap (subconjuntos aleatorios de observaciones) y subconjuntos aleatorios de características, combinando predicciones mediante votación o promedio. Esto reduce overfitting y mejora estabilidad.

Pregunta 5: ¿Cuál de los siguientes NO es un criterio de división común en árboles de clasificación?

A) Índice Gini
B) Entropía
C) Correlación de Pearson
D) Error de clasificación
✓ Respuesta correcta: C) Correlación de Pearson

Argumentación: La correlación de Pearson es una medida estadística de relación lineal entre variables, utilizada en métodos de filtro para selección de características, pero no como criterio de división en árboles. Los árboles utilizan Gini, entropía o error de clasificación.

Pregunta 6: En reglas de asociación, ¿qué métrica mide la frecuencia de aparición conjunta de ítems?

A) Confianza
B) Lift
C) Soporte
D) Precisión
✓ Respuesta correcta: C) Soporte

Argumentación: El soporte (support) mide la frecuencia relativa de aparición conjunta de ítems en el dataset. La confianza mide probabilidad condicional y el lift la fuerza de asociación comparada con independencia.

Pregunta 7: ¿Qué diferencia fundamental existe entre Machine Learning tradicional y Deep Learning?

A) Deep Learning no utiliza algoritmos matemáticos
B) Machine Learning requiere más datos que Deep Learning
C) Deep Learning realiza extracción automática de características, ML tradicional requiere ingeniería manual
D) Solo Deep Learning puede realizar clasificación
✓ Respuesta correcta: C) Deep Learning realiza extracción automática de características, ML tradicional requiere ingeniería manual

Argumentación: La diferencia clave es que Deep Learning aprende automáticamente representaciones jerárquicas de características mediante múltiples capas, mientras que ML tradicional requiere ingeniería manual de features por expertos del dominio.

Pregunta 8: ¿Qué tipo de hardware es especialmente necesario para entrenar modelos de Deep Learning?

A) CPUs convencionales son suficientes
B) GPUs (unidades de procesamiento gráfico) especializadas
C) Solo discos duros de alta velocidad
D) Memoria RAM exclusivamente
✓ Respuesta correcta: B) GPUs (unidades de procesamiento gráfico) especializadas

Argumentación: Deep Learning requiere GPUs especializadas debido a la alta demanda computacional de entrenar redes neuronales profundas con millones de parámetros. Las GPUs aceleran significativamente el procesamiento paralelo necesario.

Pregunta 9: ¿Cuál es la función de activación más utilizada actualmente en redes neuronales profundas?

A) Sigmoid
B) Tanh
C) ReLU (Rectified Linear Unit)
D) Linear
✓ Respuesta correcta: C) ReLU (Rectified Linear Unit)

Argumentación: ReLU f(x) = max(0,x) es actualmente la función de activación más utilizada por su simplicidad computacional, capacidad de mitigar el problema de desvanecimiento de gradiente y mejor rendimiento en redes profundas comparada con sigmoid o tanh.

Pregunta 10: En selección de características, ¿qué tipo de método evalúa características independientemente del algoritmo de aprendizaje?

A) Métodos de envoltura (wrapper)
B) Métodos embebidos (embedded)
C) Métodos de filtro (filter)
D) Métodos de regularización
✓ Respuesta correcta: C) Métodos de filtro (filter)

Argumentación: Los métodos de filtro evalúan la relevancia de cada característica independientemente del algoritmo de ML, utilizando medidas estadísticas como correlación, chi-cuadrado o información mutua. Son rápidos y escalables pero no consideran interacciones.

Pregunta 11: ¿Qué técnica de regularización utiliza LASSO?

A) Regularización L2
B) Regularización L1 que fuerza coeficientes a cero
C) Dropout de neuronas
D) Normalización batch
✓ Respuesta correcta: B) Regularización L1 que fuerza coeficientes a cero

Argumentación: LASSO (Least Absolute Shrinkage and Selection Operator) utiliza regularización L1, que añade la suma de valores absolutos de coeficientes a la función de coste. Esto tiene la propiedad de forzar algunos coeficientes exactamente a cero, realizando selección automática de características.

Pregunta 12: ¿Cuál es el objetivo principal del Análisis de Componentes Principales (PCA)?

A) Aumentar la dimensionalidad de los datos
B) Clasificar datos en categorías predefinidas
C) Reducir dimensionalidad transformando variables en componentes no correlacionados
D) Eliminar datos atípicos del dataset
✓ Respuesta correcta: C) Reducir dimensionalidad transformando variables en componentes no correlacionados

Argumentación: PCA transforma las variables originales en nuevos componentes principales ortogonales (no correlacionados), ordenados por varianza explicada. Los primeros componentes capturan la mayor información, permitiendo reducir dimensionalidad manteniendo máxima varianza.

Pregunta 13: ¿Qué diferencia existe entre técnicas descriptivas y predictivas en Machine Learning?

A) Las técnicas descriptivas requieren más datos
B) Las descriptivas buscan patrones sin variable objetivo (no supervisadas), las predictivas predicen valores (supervisadas)
C) Las predictivas solo utilizan regresión lineal
D) No existe diferencia real entre ambas
✓ Respuesta correcta: B) Las descriptivas buscan patrones sin variable objetivo (no supervisadas), las predictivas predicen valores (supervisadas)

Argumentación: Las técnicas descriptivas (clustering, reducción de dimensionalidad) buscan estructuras en datos sin etiquetas. Las técnicas predictivas (clasificación, regresión) aprenden de datos etiquetados para predecir variable objetivo en nuevos datos.

Pregunta 14: ¿Cuál de estos algoritmos es un ejemplo de aprendizaje NO supervisado?

A) Regresión logística
B) K-Means Clustering
C) Árboles de decisión
D) Support Vector Machines
✓ Respuesta correcta: B) K-Means Clustering

Argumentación: K-Means es un algoritmo de clustering (aprendizaje no supervisado) que agrupa observaciones en k clusters sin etiquetas previas. Los otros algoritmos mencionados son supervisados, requiriendo variable objetivo conocida.

Pregunta 15: En el ámbito de la salud, ¿qué precisión alcanzaron sistemas de IA en detección de melanoma en 2024?

A) Inferior al 70%
B) Entre 75% y 85%
C) Superior al 95%
D) 100% sin errores
✓ Respuesta correcta: C) Superior al 95%

Argumentación: En 2024, los sistemas de IA basados en deep learning alcanzaron precisión superior al 95% en identificación de melanoma mediante análisis dermatoscópico, reduciendo significativamente falsos positivos y negativos, equiparándose o superando a dermatólogos experimentados.

Pregunta 16: ¿Qué aplicación de IA en salud permite al paciente obtener recomendaciones sobre el especialista adecuado?

A) Cirugía robótica
B) Evaluadores de síntomas y asistentes virtuales
C) Resonancia magnética funcional
D) Electrocardiogramas digitales
✓ Respuesta correcta: B) Evaluadores de síntomas y asistentes virtuales

Argumentación: Los evaluadores de síntomas basados en IA (como el implementado por MAPFRE Salud) permiten al paciente describir síntomas y recibir recomendaciones sobre el especialista apropiado, realizando triaje automático y mejorando eficiencia de atención médica.

Pregunta 17: ¿En qué área la IA ha mejorado la detección temprana del Alzheimer según avances de 2024?

A) Análisis de muestras de sangre exclusivamente
B) Análisis de resonancias magnéticas y datos genéticos identificando cambios cerebrales tempranos
C) Medición de presión arterial
D) Conteo de pasos diarios
✓ Respuesta correcta: B) Análisis de resonancias magnéticas y datos genéticos identificando cambios cerebrales tempranos

Argumentación: En 2024 se realizaron avances significativos utilizando IA para detectar Alzheimer temprano mediante análisis de resonancias magnéticas y datos genéticos. Los algoritmos identifican cambios estructurales cerebrales mucho antes de síntomas clínicos, mejorando precisión de detección temprana en un 30%.

Pregunta 18: ¿Cuándo entró en vigor la Ley de Inteligencia Artificial de la Unión Europea?

A) 1 de enero de 2023
B) 1 de agosto de 2024
C) 1 de enero de 2025
D) Aún no ha entrado en vigor
✓ Respuesta correcta: B) 1 de agosto de 2024

Argumentación: El Reglamento (UE) 2024/1689 de Inteligencia Artificial fue aprobado por el Parlamento Europeo el 13 de marzo de 2024 y entró en vigor el 1 de agosto de 2024, constituyendo la primera normativa jurídica del mundo sobre inteligencia artificial.

Pregunta 19: ¿Qué enfoque utiliza la Ley de IA de la UE para clasificar los sistemas?

A) Clasificación por coste económico
B) Clasificación alfabética
C) Enfoque basado en riesgos (prohibidos, alto riesgo, limitado, mínimo)
D) Clasificación por velocidad de procesamiento
✓ Respuesta correcta: C) Enfoque basado en riesgos (prohibidos, alto riesgo, limitado, mínimo)

Argumentación: La Ley de IA clasifica sistemas según nivel de riesgo en cuatro categorías: sistemas prohibidos (amenaza inaceptable), alto riesgo (afectan salud/seguridad/derechos), riesgo limitado (transparencia requerida) y riesgo mínimo (sin regulación específica). Los requisitos son proporcionales al riesgo.

Pregunta 20: ¿Cuál de los siguientes sistemas está PROHIBIDO por la Ley de IA de la UE?

A) Chatbots de atención al cliente
B) Sistemas de puntuación social por autoridades públicas
C) Sistemas de recomendación de productos
D) Asistentes virtuales educativos
✓ Respuesta correcta: B) Sistemas de puntuación social por autoridades públicas

Argumentación: Los sistemas de puntuación social por autoridades públicas están explícitamente prohibidos por considerarse amenaza inaceptable para derechos fundamentales. Otros sistemas prohibidos incluyen manipulación cognitiva conductual, explotación de vulnerabilidades de grupos específicos y categorización biométrica basada en características sensibles.

Pregunta 21: ¿Qué categoría de riesgo tienen los sistemas de diagnóstico médico según la Ley de IA?

A) Prohibidos
B) Alto riesgo
C) Riesgo limitado
D) Riesgo mínimo
✓ Respuesta correcta: B) Alto riesgo

Argumentación: Los productos médicos y sistemas de diagnóstico se clasifican como alto riesgo porque pueden afectar significativamente a la salud de las personas. Deben cumplir requisitos estrictos incluyendo sistema de gestión de riesgos, documentación técnica, trazabilidad, supervisión humana y evaluación de conformidad antes de comercialización.

Pregunta 22: ¿Cuál es la multa máxima por incumplimiento de prohibiciones en la Ley de IA de la UE?

A) 1 millón de euros
B) 10 millones de euros o 2% de facturación
C) 35 millones de euros o 7% de facturación global anual
D) No establece sanciones económicas
✓ Respuesta correcta: C) 35 millones de euros o 7% de facturación global anual

Argumentación: El incumplimiento de prohibiciones puede resultar en multas de hasta 35 millones de euros o el 7% de la facturación global anual (el importe mayor). Para otras violaciones, las multas alcanzan hasta 15 millones o 3% de facturación. Estas sanciones significativas buscan garantizar cumplimiento efectivo.

Pregunta 23: ¿Qué requisito deben cumplir los sistemas de IA de alto riesgo relacionado con datos de entrenamiento?

A) Utilizar únicamente datos públicos
B) Datos relevantes, representativos y libres de sesgos
C) Mínimo 1 millón de registros
D) Datos exclusivamente de ciudadanos europeos
✓ Respuesta correcta: B) Datos relevantes, representativos y libres de sesgos

Argumentación: La Ley de IA establece requisitos de gobernanza de datos para sistemas de alto riesgo, exigiendo que los datos de entrenamiento sean relevantes para el propósito, suficientemente representativos de la población objetivo y libres de sesgos discriminatorios que puedan afectar negativamente a grupos específicos.

Pregunta 24: ¿Qué arquitectura de red neuronal es especialmente adecuada para procesamiento de imágenes?

A) Redes Neuronales Recurrentes (RNN)
B) Perceptrón simple
C) Redes Neuronales Convolucionales (CNN)
D) Redes de Hopfield
✓ Respuesta correcta: C) Redes Neuronales Convolucionales (CNN)

Argumentación: Las CNN están especialmente diseñadas para procesamiento de imágenes mediante capas convolucionales que detectan características locales (bordes, texturas, formas). Su arquitectura jerárquica aprende patrones desde simples hasta complejos, siendo el estado del arte en visión por computadora, diagnóstico médico por imagen y reconocimiento facial.

Pregunta 25: ¿Qué ventaja principal ofrece el Transfer Learning en Deep Learning?

A) Elimina la necesidad de datos por completo
B) Permite reutilizar modelos preentrenados para nuevas tareas con menos datos y tiempo
C) Garantiza 100% de precisión en cualquier tarea
D) Reduce el tamaño de las redes neuronales a una sola capa
✓ Respuesta correcta: B) Permite reutilizar modelos preentrenados para nuevas tareas con menos datos y tiempo

Argumentación: Transfer Learning permite aprovechar conocimiento aprendido por redes entrenadas en grandes datasets (como ImageNet) y adaptarlo a nuevas tareas específicas. Esto reduce drásticamente requisitos de datos, tiempo de entrenamiento y recursos computacionales, siendo especialmente valioso en medicina donde datos etiquetados son escasos.

12. Referencias Bibliográficas

📚 Libros y Manuales Especializados

  • Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4ª ed.). Pearson Education. Manual fundamental de referencia en IA.
  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press. Texto definitivo sobre aprendizaje profundo.
  • James, G., Witten, D., Hastie, T., & Tibshirani, R. (2021). An Introduction to Statistical Learning with Applications in R (2ª ed.). Springer. Introducción práctica a Machine Learning.
  • Géron, A. (2022). Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow (3ª ed.). O’Reilly Media. Guía práctica de implementación.
  • Molnar, C. (2022). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. Leanpub. Referencia sobre interpretabilidad.

🏛️ Normativa y Regulación

  • Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial).
  • Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). (2025). Guía práctica del Reglamento Europeo de IA. Gobierno de España.
  • Carta de Derechos Fundamentales de la Unión Europea (2000/C 364/01). Artículos sobre protección de datos y dignidad humana.
  • Reglamento General de Protección de Datos (RGPD) – Reglamento (UE) 2016/679. Artículo 22 sobre decisiones automatizadas.

🏥 Aplicaciones en Salud

  • Esteva, A., et al. (2017). «Dermatologist-level classification of skin cancer with deep neural networks». Nature, 542(7639), 115-118.
  • Topol, E. J. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.
  • Rajkomar, A., Dean, J., & Kohane, I. (2019). «Machine Learning in Medicine». New England Journal of Medicine, 380(14), 1347-1358.
  • Yu, K. H., Beam, A. L., & Kohane, I. S. (2018). «Artificial intelligence in healthcare». Nature Biomedical Engineering, 2(10), 719-731.
  • MAPFRE. (2024). «Inteligencia artificial en salud: aplicaciones, riesgos y un futuro de oportunidades». Informe corporativo sobre innovación en salud.

🔬 Artículos Científicos y Técnicos

  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). «Deep learning». Nature, 521(7553), 436-444. Artículo seminal sobre deep learning.
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). «Why Should I Trust You?: Explaining the Predictions of Any Classifier». KDD 2016. Introducción a LIME.
  • Lundberg, S. M., & Lee, S. I. (2017). «A Unified Approach to Interpreting Model Predictions». NIPS 2017. Presentación de SHAP.
  • Rudin, C. (2019). «Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead». Nature Machine Intelligence, 1(5), 206-215.
  • Breiman, L. (2001). «Random Forests». Machine Learning, 45(1), 5-32. Artículo original sobre Random Forest.

🌐 Recursos Online y Documentación

  • IBM. (2024). «¿Qué es la interpretabilidad de la IA?». IBM Think Topics. https://www.ibm.com/es-es/think/topics/interpretability
  • Mindful ML. (2024). «Explicabilidad vs. Interpretabilidad en IA». Via Labs Digital. https://mindfulml.vialabsdigital.com
  • Comisión Europea. (2024). «Artificial Intelligence Act – Questions and Answers». Portal oficial UE sobre Ley de IA.
  • Scikit-learn Documentation. (2024). «Feature Selection» y «Model Selection». https://scikit-learn.org/stable/
  • TensorFlow Documentation. (2024). «Guide to Deep Learning». https://www.tensorflow.org/
  • PyTorch Tutorials. (2024). «Deep Learning with PyTorch». https://pytorch.org/tutorials/

📊 Organizaciones e Instituciones

  • Instituto de Ingeniería del Conocimiento (IIC-UAM). «Modelos de IA interpretables: investigación y desarrollo».
  • Universidad Internacional de Andalucía (UNIA). «Inteligencia Artificial en la Medicina: el Futuro de la Salud».
  • Asociación Española para la Inteligencia Artificial (AEPIA). Publicaciones y congresos nacionales.
  • Partnership on AI. Organización internacional sobre IA responsable.
  • AI Now Institute. Investigación sobre implicaciones sociales de la IA.

🎓 Cursos y Formación Online

  • Coursera – Machine Learning Specialization (Andrew Ng, Stanford University)
  • Deep Learning Specialization (deeplearning.ai)
  • Fast.ai – Practical Deep Learning for Coders
  • edX – Artificial Intelligence MicroMasters (Columbia University)
  • Kaggle Learn – Machine Learning y Data Science

📘 Resumen del Tema 75

La Inteligencia Artificial representa la vanguardia tecnológica del siglo XXI, transformando sectores críticos como la salud, la educación y la administración pública. Este tema ha abordado los fundamentos esenciales: la distinción crucial entre modelos interpretables y no interpretables, los principales algoritmos de Machine Learning desde regresión hasta redes neuronales, las técnicas de selección y extracción de características, y el caso especial del Deep Learning con su capacidad de aprendizaje automático de representaciones.

Las aplicaciones en salud demuestran el potencial transformador de la IA, desde diagnósticos más precisos que superan al 95% de exactitud hasta la detección temprana de enfermedades neurodegenerativas como el Alzheimer. El marco regulatorio establecido por la Ley de IA de la UE, primera normativa mundial en vigor desde agosto de 2024, garantiza que estos avances tecnológicos se desarrollen respetando derechos fundamentales, estableciendo un equilibrio entre innovación y protección ciudadana mediante un enfoque basado en riesgos proporcionales.

💪 Mensaje para Opositores

¡Ánimo en tu preparación! La Inteligencia Artificial no es solo un tema de oposición, sino una competencia fundamental para el futuro profesional en la Administración Pública. Dominar estos conceptos te permitirá liderar la transformación digital del sector público, implementar soluciones innovadoras y tomar decisiones informadas sobre la adopción responsable de tecnologías de IA.

Recuerda que la interpretabilidad, la ética y el cumplimiento normativo son tan importantes como el rendimiento técnico. En un entorno sanitario y administrativo, cada decisión asistida por IA puede impactar vidas humanas, por lo que la responsabilidad y el conocimiento profundo son esenciales.

Consejos de estudio: Practica con datasets reales, implementa algoritmos básicos en Python, analiza casos de uso en tu ámbito profesional y mantente actualizado sobre desarrollos normativos. La constancia y la práctica son tus mejores aliadas. ¡Éxito en tu oposición! 🎯

Documento elaborado para preparación de oposiciones

Tema 75 – Inteligencia Artificial: Modelos, Algoritmos y Aplicaciones

Actualizado: Noviembre 2025

Contenido basado en normativa vigente, investigación actualizada y mejores prácticas profesionales.
Diseñado para estudio autónomo y comprensión profunda de conceptos fundamentales de IA.

📧 Material educativo | 📚 Uso exclusivo para estudio | 🎓 Preparación TFA – Funciones Técnicas Administrativas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *