Apéndice V - Glosario bilingüe técnico y de estilo del Manual de IA
Este glosario recoge los términos más frecuentes en el campo de los modelos de lenguaje y el uso preferido dentro del Manual de IA:
- Los anglicismos consolidados (token, prompt, embedding…) se conservan, con breve explicación en castellano.
- Las expresiones traducidas incluyen el original entre paréntesis la primera vez.
| Término inglés | Uso en el manual | Nota de estilo / precisión conceptual |
|---|---|---|
| Fundamentos y arquitectura | ||
| Token | Token | Unidad mínima de texto; puede ser sílaba, palabra parcial o símbolo. Mantener en inglés. |
| Tokenization | Tokenización | Segmentación de texto en tokens; traducir en contexto explicativo. |
| Context window | Ventana de contexto (context window) | Número máximo de tokens procesables en una interacción. |
| Embedding | Embedding (vector de representación) | Vector numérico que representa significado semántico. |
| Embedding space | Espacio de embeddings | Espacio vectorial donde “cercanía” ≈ similitud semántica. |
| Model weights | Pesos del modelo | Valores aprendidos durante el entrenamiento. |
| Parameter | Parámetro | Magnitud configurable del modelo o de la generación. |
| Parameter count | Número de parámetros | Indicador de capacidad del modelo (no confundir con calidad). |
| Entrenamiento y alineación | ||
| Training data | Datos de entrenamiento | Conjunto empleado para aprender los pesos del modelo. |
| Pre-training / Fine-tuning | Preentrenamiento / ajuste fino | Fases distintas: aprendizaje general vs. especialización. |
| Alignment | Alineación | Ajuste a valores/comportamientos deseados (p. ej., RLHF). |
| Reinforcement Learning | Aprendizaje por refuerzo | Mantener siglas (RL, RLHF) con mayúsculas. |
| Gradient descent | Descenso de gradiente | Método estándar de optimización; traducir siempre. |
| Overfitting | Sobreajuste | Memorización excesiva; peor generalización. |
| Double descent | Doble descenso | Comportamiento no lineal de la generalización según capacidad. |
| Interacción y prompting | ||
| Prompt | Instrucción o prompt | Mantener el término en inglés; traducible en textos divulgativos. |
| System prompt | Instrucción del sistema (system prompt) | Define rol/tono/reglas del modelo; distinto del prompt del usuario. |
| Prompt engineering | Ingeniería de prompts | Uso híbrido aceptado; minúsculas salvo en títulos. |
| Chain-of-thought (CoT) | Cadena de razonamiento (chain-of-thought) | Pedir pasos intermedios explícitos; mantener sigla CoT en técnico. |
| Few-shot / Zero-shot | Aprendizaje con pocos / sin ejemplos (few-shot, zero-shot) | Técnicas de inferencia según ejemplos proporcionados. |
| Agent / Agentic model | Agente / modelo agente | Modelos con planificación y uso de herramientas. |
| Mode / Agent mode | Modo agente (Agent Mode) | Funcionalidad específica de plataforma (ChatGPT, Gemini…). |
| Function calling | Llamada a función | Invocación de herramientas/APIs desde la generación. |
| Tool use / Tool integration | Uso de herramientas | Integración de funciones externas durante la respuesta. |
| Inferencia y parámetros | ||
| Inference | Inferencia | Proceso de generación a partir de un modelo ya entrenado. |
| Inference API | API de inferencia | Interfaz para consultar el modelo (HTTP/SDK). |
| Stateless | Sin estado (stateless) | Sin memoria entre turnos; aclarar en explicaciones técnicas. |
| Stop sequence | Secuencia de parada (stop sequence) | Cadena/tokens que detienen la generación. |
| Temperature | Temperatura | Control de aleatoriedad en muestreo. |
| Top-p (nucleus sampling) | Top-p o muestreo por núcleo | Restringe la probabilidad acumulada de selección. |
| Latency | Latencia | Tiempo entre petición y respuesta. |
| Retrieval | Recuperación | Obtención de contexto/documentos relevantes. |
| RAG (Retrieval-Augmented Generation) | Recuperación aumentada (RAG) | Combina recuperación documental con generación. |
| Grounding | Anclaje o fundamentación (grounding) | Vincular respuestas a fuentes verificables. |
| Memory contextual | Memoria contextual | Memoria temporal basada en la ventana de contexto. |
| Persistent memory | Memoria persistente | Datos guardados por la aplicación entre sesiones. |
| Evaluación y comportamiento | ||
| Hallucination | “Alucinación” | Invención plausible; primera mención entre comillas. |
| Hardware y entorno | ||
| On-device AI | IA en el dispositivo (On-Device AI) | Parte del proceso se ejecuta localmente antes/depués de nube. |
| NPU (Neural Processing Unit) | Unidad de Procesamiento Neuronal (NPU) | Chip especializado en inferencia eficiente; mantener sigla. |
| TOPS (Tera Operations per Second) | TOPS (billones de operaciones por segundo) | Indicador de rendimiento de NPUs; explicar en texto. |
| Multimodal | Multimodal | Capacidad de combinar texto, imagen, audio o vídeo. |
Nota: Los términos mantenidos en inglés lo son por consenso técnico internacional: traducirlos podría dificultar búsquedas o lecturas cruzadas con documentación original.
- Anterior « IV Hardware para IA
- Siguiente Fin del tema »