4. El entrenamiento de modelos de IA: requisitos legales, explicabilidad y estado del arte (2025)
4.1 Introducción
El entrenamiento es el proceso mediante el cual un modelo de IA aprende a partir de grandes volúmenes de datos. Aunque su funcionamiento interno pueda parecer opaco, la nueva regulación europea —el AI Act, en vigor desde agosto de 2025, aunque estudiándose a finales de dicho año la posibilidad de modificaciones y aplazamientos— impone obligaciones precisas sobre la documentación, la trazabilidad y la explicabilidad de los modelos de IA.
Los proveedores deben poder describir con claridad cómo y con qué datos aprende un modelo. Esta exigencia marca un cambio de paradigma: ya no basta con que el sistema funcione, debe ser comprensible y auditable.
4.2 Cómo funciona el entrenamiento de un modelo de lenguaje
Aunque suele decirse, simplificando, que un LLM “aprende de cantidades ingentes de texto”, el proceso real puede desglosarse en pasos más concretos y comprensibles.
4.2.1 Tokenización automática
Antes de entrenar, los textos se transforman en tokens, fragmentos mínimos como sílabas, trozos de palabra o signos.
Un programa llamado tokenizer traduce el texto a secuencias numéricas:
Ejemplo: “El gato duerme” → [231, 1045, 882]
El modelo no entiende palabras, sino patrones estadísticos entre estos números.
4.2.2 Predicción del siguiente token
El modelo aprende intentando adivinar, una y otra vez, qué token viene a continuación.
- Ejemplo: ante “El gato se subió al …”, debe predecir “árbol”.
- Si acierta, refuerza sus ajustes; si falla, los corrige.
Este proceso se repite millones de veces sobre enormes conjuntos de texto. El modelo no razona: solo optimiza su capacidad para anticipar el próximo fragmento con mayor probabilidad.
4.2.3 Pesos o parámetros
En su interior, un modelo posee miles de millones de conexiones o parámetros.
Cada parámetro es un número que regula la fuerza de la relación entre nodos.
Durante el entrenamiento, estos valores se ajustan automáticamente mediante retropropagación del error (backpropagation).
El modelo prueba, mide su error y corrige. Con cada iteración, mejora su predicción.
4.2.4 Épocas o pasadas
El entrenamiento no se hace en una sola lectura. Una época es una lectura completa del conjunto de datos de entrenamiento.
Como un estudiante que repasa varias veces el mismo libro, cada pasada refuerza o corrige lo aprendido.
Los modelos actuales pueden requerir decenas o cientos de épocas para alcanzar estabilidad y generalización adecuadas.
4.2.5 Escala y coste
El ciclo de tokenización, predicción y ajuste de parámetros se ejecuta sobre cantidades colosales de texto.
Para procesar este volumen se usan GPUs especializadas, que calculan en paralelo millones de operaciones matemáticas.
Entrenar un modelo de última generación (70.000 millones de parámetros o más) puede requerir semanas de cálculo continuo y un coste de varios millones de euros.
Analogía:
Un estudiante de idiomas lee millones de frases. Cada vez que se equivoca, un profesor corrige la palabra. Tras millones de correcciones, desarrolla una “intuición” estadística sobre qué palabra encaja mejor en cada contexto.
4.3 El problema de la memoria en el entrenamiento
Durante el entrenamiento, los LLM pueden memorizar fragmentos exactos del material que procesan.
No ocurre de forma sistemática, pero se ha demostrado que:
- Pueden conservar literalmente fragmentos de texto o código del corpus.
- Esta memorización se da sobre todo en secuencias raras o únicas.
- Estudios recientes estiman que un modelo puede almacenar alrededor de 3,6 bits por parámetro.
- El fenómeno del doble descenso muestra cómo un modelo puede sobreajustarse (memorizar en exceso) y, paradójicamente, mejorar su generalización al aumentar aún más la capacidad.
Implicaciones:
- Puede ser útil para conservar hechos literales o citas exactas.
- Supone riesgo si los datos incluyen información sensible o protegida por derechos de autor.
- Es independiente de la memoria de sesión o persistente descrita en la Lección 3.
Nota: Privacidad y propiedad intelectual - La memorización durante el entrenamiento plantea riesgos legales: un modelo puede reproducir fragmentos privados o con copyright. Por eso el AI Act exige documentar y justificar la procedencia de los datos empleados.
4.4 Exigencias del AI Act en el entrenamiento
La regulación europea establece un marco detallado para los sistemas de IA de propósito general, incluyendo los modelos de lenguaje.
4.4.1 Expediente técnico
Debe mantenerse un registro completo del ciclo de vida del modelo, desde la preparación de los datos hasta las actualizaciones posteriores.
Este expediente ha de estar disponible para las autoridades en cualquier momento.
4.4.2 Resumen de datos de entrenamiento
Los desarrolladores deben publicar un resumen estandarizado con los criterios y tipos de datos utilizados, garantizando trazabilidad y detección de sesgos o posibles usos indebidos de información protegida.
4.4.3 Política de derechos de autor
Es obligatorio demostrar cómo se han respetado los derechos de autor de los datos empleados.
El uso de corpus que contengan obras protegidas sin permiso puede conllevar sanciones severas.
4.4.4 Actualización y re-registro
Cualquier cambio sustancial en los datos o en la arquitectura requiere nuevo registro y documentación, normalmente en un plazo máximo de 15 días naturales.
4.4.5 Evaluación de riesgos
Los sistemas de alto impacto deben incorporar políticas reforzadas de ciberseguridad, supervisión y notificación de incidentes graves.
Nota: Cumplimiento obligatorio - No documentar el proceso o falsear información puede acarrear sanciones de hasta el 6% de la facturación global anual o 30 millones de euros (lo que sea mayor).
4.5 Transparencia y explicabilidad
Uno de los objetivos del AI Act es que tanto desarrolladores como usuarios puedan entender y justificar el funcionamiento del modelo.
Esto implica:
- Mantener evidencia verificable de los datos y procesos de entrenamiento.
- Explicar de forma clara y comprensible las bases de las respuestas generadas.
- Permitir auditorías externas y responder ante autoridades nacionales en caso de incidentes o reclamaciones.
4.6 Innovación y cambio de paradigma: el caso DeepSeek (2024-2025)
Mientras la regulación exige transparencia y documentación, la investigación ha seguido avanzando hacia modelos más eficientes y trazables.
El ejemplo más destacado es DeepSeek-R1, que marcó un punto de inflexión en la historia reciente de la IA.
4.6.1 Más allá de la cuantización
DeepSeek introdujo innovaciones en gestión de memoria y uso de datos sintéticos, reduciendo drásticamente los costes de entrenamiento y ejecución.
No se trató solo de “comprimir” modelos existentes, sino de replantear el proceso completo.
4.6.2 Un hito científico
El modelo DeepSeek-R1 fue revisado por pares y publicado en Nature, un hecho sin precedentes.
Ocho expertos independientes evaluaron la originalidad y solidez del trabajo durante ocho meses, estableciendo un nuevo estándar de transparencia científica.
4.6.3 Entrenamiento con refuerzo puro
La innovación central consistió en entrenar mediante refuerzo puro (reinforcement learning), premiando únicamente la respuesta final correcta.
Sin anotaciones humanas paso a paso, el modelo aprendió estrategias de autoverificación: podía “esperar y rehacer” su respuesta si detectaba errores.
Esto demuestra que recompensas simples sobre el resultado final pueden generar razonamiento emergente.
4.6.4 Coste radicalmente inferior
Mientras entrenar modelos equivalentes puede costar millones, DeepSeek-R1 reportó un coste total declarado de 294.000 USD usando 512 GPUs H800, una reducción de varios órdenes de magnitud.
Demostró que el acceso a modelos de alto rendimiento ya no es exclusivo de grandes corporaciones.
4.6.5 Variante R1-Zero
La versión DeepSeek-R1-Zero se entrenó verificando solo la corrección final frente a datos de referencia (ground-truth), sin imponer restricciones sobre el proceso intermedio.
El modelo descubrió por sí mismo estrategias internas de razonamiento.
4.6.6 Implicaciones
DeepSeek ejemplifica una nueva etapa en la IA:
- Muestra que el razonamiento puede emerger espontáneamente a partir de recompensas mínimas.
- Prueba que la transparencia y la trazabilidad son compatibles con la eficiencia.
- Indica que la investigación en IA puede alcanzar estándares científicos equiparables a los de otras disciplinas consolidadas.
Nota: Cambio de paradigma - DeepSeek demostró que la combinación de trazabilidad regulatoria y eficiencia técnica no solo es posible, sino deseable. El futuro del entrenamiento de IA pasa por modelos auditables, sostenibles y científicamente verificables.
4.6.7
Si bien DeepSeek-V3 representa un avance significativo, especialmente en eficiencia computacional, es importante mantener una perspectiva equilibrada. El modelo tiene limitaciones en ciertas áreas que exigen mayor creatividad, existe opacidad sobre sus datos de entrenamiento, y la reproducibilidad real de sus resultados fuera del ecosistema chino permanece sin verificar independientemente.
4.7 Riesgos y sesgos
Los LLMs son potentes, pero imperfectos. Tres problemas estructurales limitan su fiabilidad: sesgos, alucinaciones y cámaras de eco. Aunque cada uno tiene causas distintas, todos afectan a la capacidad del modelo para producir información fiable y verificable.
1. Sesgos (Biases)
Definición: Prejuicios sistemáticos heredados del dataset de entrenamiento.
Los sesgos derivan de los datos con los que se entrena el modelo —se habla de más de 80 mil millones de textos extraídos de internet— que reflejan y amplifican desigualdades del mundo real. Ejemplos conocidos incluyen asociar “enfermera” con “mujer”, representar al “CEO típico” como “hombre blanco de Harvard”. En el ámbito STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), el sesgo es especialmente evidente: el dataset contiene un 85% de referencias a hombres, lo que invisibiliza a las mujeres, que representan el 28% de los profesionales en este campo. Estos prejuicios sistemáticos, lejos de ser irrelevantes, pueden perpetuar discriminación en contrataciones o distorsionar la percepción cultural.
Mitigación:
La solución a este problema pasa por adoptar datasets mas diversos, y técnicas de fine-tuning específico, como el Refuerzo por Retroalimentación Humana (RLHF), que son práctica común en todos los LLMs. Así Grox (xAi) al describir una de sus últimas versiones, señalaba que durante su entrenamiento se identificaron 500.000 prompts sesgados, como "buen programador = hombre joven de Stanford". Luego, humanos (labelers) calificaron las respuestas: las sesgadas recibieron 2/5 puntos, mientras que las equilibradas obtuvieron 5/5. El modelo se reentrenó exclusivamente con las respuestas mejor valoradas mediante RLHF (Refuerzo por Retroalimentación Humana), afirmando una reducción importante del sesgo.
2. Alucinaciones (Hallucinations)
Definición: Generación de información falsa pero convincente, priorizando la verosimilitud sobre la verdad.
La diferencia clave entre ambos problemas es que los sesgos son prejuicios consistentes causados por datos desiguales, mientras que las alucinaciones son errores aislados de predicción. Surgen cuando el modelo carece de datos concretos y rellena huecos basándose en patrones estadísticos, priorizando la coherencia lingüística sobre la veracidad.
Las alucinaciones son consecuencia directa de la arquitectura Transformer: los LLM comprimen conocimiento humano mediante una compresión con pérdida, y reconstruyen respuestas probabilísticas en lugar de recuperar hechos exactos. Cuando la huella del dato original se ha difuminado, el modelo genera un contenido plausible pero falso. Por tanto, la alucinación no es propiamente un error del sistema, sino una característica de su funcionamiento generativo
Mitigación:
Mientras que los sesgos se suavizan reentrenando el modelo, las alucinaciones se reducen mediante RAG (Retrieval-Augmented Generation), que obliga al modelo a consultar fuentes externas fiables antes de responder.
3. Cámaras de eco (Echo Chambers)
Definición: Fenómeno en el que el modelo amplifica y valida premisas introducidas por el usuario —aunque sean erróneas— reforzando la información falsa en lugar de corregirla.
Este riesgo procede de la tendencia de los modelos conversacionales a resultar útiles y complacientes (sycophancy). Si el usuario introduce una afirmación incorrecta (“la inflación de España en 2023 fue del 0,5 %”), el modelo tiende a aceptarla como verdadera y construir la respuesta sobre ella. El usuario cree estar contrastando información, pero solo recibe el eco de su propia premisa.
A gran escala, este mecanismo alimenta un problema sistémico: el model collapse. Si los futuros modelos se entrenan con corpus que contienen cantidades crecientes de contenido generado por otras IAs —incluidas respuestas incorrectas validadas en estas cámaras de eco— la calidad global de la información podría degradarse progresivamente. Este colapso no se produce por el uso ocasional de contenido generado, sino por su acumulación masiva sin filtrado en los datasets de entrenamiento.
Mitigación:
Las estrategias pasan por reforzar la detección automática de premisas falsas, incorporar verificaciones internas explícitas y, en contextos sensibles, combinar la interacción con sistemas de recuperación (RAG) o fuentes verificadas para evitar que el modelo simplemente replique la entrada del usuario.
Estos tres fenómenos muestran que la fiabilidad de un LLM depende tanto de su entrenamiento como de la interacción del usuario y del ecosistema de datos que lo rodea.
4.8 Conclusión
El entrenamiento determina qué puede y qué no puede hacer un modelo de lenguaje. Su comportamiento emerge de tres elementos combinados: el corpus utilizado, los mecanismos de optimización y los criterios de alineación aplicados en fases posteriores.
El AI Act incorpora requisitos formales —documentación, trazabilidad, política de datos— que obligan a describir estos procesos con mayor precisión. En paralelo, trabajos recientes como DeepSeek muestran que distintas estrategias de entrenamiento pueden producir modelos más eficientes o con capacidades distintas sin modificar la arquitectura base.
El panorama actual puede resumirse así: el entrenamiento ya no es solo un proceso técnico, sino también auditable y verificable, y continúa siendo el principal determinante de la calidad, el sesgo y el comportamiento observable de los LLM.