Apéndice II. Guía técnica de instalación y mantenimiento de Ollama
La sección 5ª del manual explica qué es Ollama y por qué es relevante; este apéndice detalla cómo se instala y se mantiene.
1. Preparación del sistema
1.1 Requisitos mínimos
- CPU compatible con instrucciones AVX2 (Intel/AMD) o Apple Silicon.
- RAM recomendada: ≥ 8 GB.
- Espacio libre en disco: 10-15 GB.
- Conexión a Internet (solo para la primera descarga de modelos).
1.2 Comprobaciones previas
Ejemplo de verificación rápida de arquitectura:
lscpu | grep Architecture
En macOS:
uname -m
2. Instalación de Ollama
2.1 Descarga e inspección del script
curl -fsSL https://ollama.com/install.sh -o install.sh
less install.sh
bash install.sh
rm install.sh
Qué hace: Descarga el script, lo muestra en el visor (less), lo ejecuta con bash, y finalmente borra el archivo.
2.2 Instalación mediante curl | sh (opción rápida)
curl -fsSL https://ollama.com/install.sh | sh
Nota: Menos segura, pero más directa. Úsala solo si confías plenamente en la fuente.
2.3 Validación post-instalación
ollama --version
ollama list
ollama run llama3
3. Desinstalación y limpieza
3.1 Eliminación del servicio
En sistemas con systemd:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm -rf /usr/local/bin/ollama /usr/share/ollama
En macOS:
brew uninstall ollama
3.2 Limpieza de modelos descargados
rm -rf ~/.ollama
Nota: Esto borra todos los modelos y configuraciones locales.
4. Solución de problemas comunes
| Problema | Causa probable | Solución |
|---|---|---|
command not found |
PATH no actualizado | Cierra y reabre la terminal o añade /usr/local/bin al PATH. |
| Error “permission denied” | Falta de permisos de instalación | Repetir con sudo bash install.sh. |
| Descarga lenta o cortada | Red inestable o proxy | Usa curl -L --retry 3 o descarga manualmente el binario. |
| No arranca el servicio | systemd inactivo |
sudo systemctl start ollama y sudo systemctl enable ollama. |
5. Notas de seguridad
- El instalador puede pedir acceso de administrador (
sudo). - Todos los binarios se instalan en
/usr/local/bin. - El servicio
ollama.servicepuede consultarse con:
systemctl status ollama
- Para aislarlo, puedes ejecutar Ollama dentro de un contenedor o VM.
6. Actualizaciones y mantenimiento
ollama update
ollama pull llama3
ollama rm <nombre_modelo>
7. Referencias y enlaces útiles
- Documentación oficial de Ollama
- Repositorio GitHub (CLI y SDK)
- Guía de integración con LM Studio
- Buenas prácticas de instalación segura en Linux
8. Resumen conceptual
La instalación de Ollama es un ejemplo práctico de infraestructura local de inferencia, que devuelve al usuario control sobre los datos y el entorno de ejecución.
Este apéndice complementa la sección 6 del Manual de IA, donde se explica el sentido de esa autonomía frente a los servicios en la nube.