Ollama permite ejecutar modelos de lenguaje de gran tamaño (LLMs) localmente en Windows sin conexión a Internet. Al conectar Ollama con Cerewro, puedes procesar documentos confidenciales con toda la potencia de la IA sin que ningún dato abandone tu red.
# Descargar e instalar Ollama para Windows
winget install Ollama.Ollama
# Descargar modelos (se ejecutan localmente)
ollama pull llama3.2 # 3B parámetros, 2GB RAM, muy rápido
ollama pull llama3.1:8b # 8B parámetros, 8GB RAM, muy capaz
ollama pull mistral # 7B parámetros, equilibrio calidad/velocidad
ollama pull phi3:mini # 3.8B, ideal para documentos en inglés
ollama pull qwen2.5:7b # 7B, excelente en código y análisis
ollama pull nomic-embed-text # Para búsqueda semántica local
# Verificar que Ollama está corriendo
ollama list
curl http://localhost:11434/api/generate -d '{"model":"llama3.2","prompt":"Hola"}'
Conéctate al modelo Llama 3.1 que tengo corriendo en localhost:11434 y analiza el contrato
de C:\juridico\contrato-confidencial.pdf. Extrae: partes, objeto, duración, penalizaciones
y riesgos legales. Este documento es confidencial y no debe salir del equipo.