Apuntes sobre Inteligencia Artificial

Lo difícil no es contestar, sino tener razón.

Apéndice II. Guía técnica de instalación y mantenimiento de Ollama

La sección 5ª del manual explica qué es Ollama y por qué es relevante; este apéndice detalla cómo se instala y se mantiene.

1. Preparación del sistema

1.1 Requisitos mínimos

  • CPU compatible con instrucciones AVX2 (Intel/AMD) o Apple Silicon.
  • RAM recomendada: ≥ 8 GB.
  • Espacio libre en disco: 10-15 GB.
  • Conexión a Internet (solo para la primera descarga de modelos).

1.2 Comprobaciones previas

Ejemplo de verificación rápida de arquitectura:

lscpu | grep Architecture

En macOS:

uname -m

2. Instalación de Ollama

2.1 Descarga e inspección del script

curl -fsSL https://ollama.com/install.sh -o install.sh
less install.sh
bash install.sh
rm install.sh

Qué hace: Descarga el script, lo muestra en el visor (less), lo ejecuta con bash, y finalmente borra el archivo.

2.2 Instalación mediante curl | sh (opción rápida)

curl -fsSL https://ollama.com/install.sh | sh

Nota: Menos segura, pero más directa. Úsala solo si confías plenamente en la fuente.

2.3 Validación post-instalación

ollama --version
ollama list
ollama run llama3

3. Desinstalación y limpieza

3.1 Eliminación del servicio

En sistemas con systemd:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm -rf /usr/local/bin/ollama /usr/share/ollama

En macOS:

brew uninstall ollama

3.2 Limpieza de modelos descargados

rm -rf ~/.ollama

Nota: Esto borra todos los modelos y configuraciones locales.

4. Solución de problemas comunes

Problema Causa probable Solución
command not found PATH no actualizado Cierra y reabre la terminal o añade /usr/local/bin al PATH.
Error “permission denied” Falta de permisos de instalación Repetir con sudo bash install.sh.
Descarga lenta o cortada Red inestable o proxy Usa curl -L --retry 3 o descarga manualmente el binario.
No arranca el servicio systemd inactivo sudo systemctl start ollama y sudo systemctl enable ollama.

5. Notas de seguridad

  • El instalador puede pedir acceso de administrador (sudo).
  • Todos los binarios se instalan en /usr/local/bin.
  • El servicio ollama.service puede consultarse con:
systemctl status ollama
  • Para aislarlo, puedes ejecutar Ollama dentro de un contenedor o VM.

6. Actualizaciones y mantenimiento

ollama update
ollama pull llama3
ollama rm <nombre_modelo>

7. Referencias y enlaces útiles

8. Resumen conceptual

La instalación de Ollama es un ejemplo práctico de infraestructura local de inferencia, que devuelve al usuario control sobre los datos y el entorno de ejecución.
Este apéndice complementa la sección 6 del Manual de IA, donde se explica el sentido de esa autonomía frente a los servicios en la nube.

TOP