Cerewro en modo local: IA privada sin enviar datos a la nube

Configura Cerewro con un modelo de IA local (Ollama, LM Studio) para operar sin conexion a internet. Tus datos, conversaciones y archivos nunca salen de tu maquina.

Cerewro en modo local: IA privada sin nube

Cerewro puede configurarse para usar modelos de IA locales (Ollama, LM Studio, Jan) en lugar de enviar datos a la nube. Tus conversaciones, archivos y comandos permanecen en tu máquina.

Configurar modelo local
# En el archivo de configuración de Cerewro
provider: ollama
model: llama3.2:8b
base_url: http://localhost:11434/v1

Proveedores locales compatibles

ProveedorURL por defectoModelos recomendados
Ollamahttp://localhost:11434llama3.2, mistral, phi4
LM Studiohttp://localhost:1234Qualquier GGUF
Janhttp://localhost:1337llama3, gemma2

Ventajas del modo local

  1. Privacidad total: ningún dato sale de tu máquina
  2. Sin límites de tokens: no hay costos por uso de API
  3. Funciona offline: no requiere conexión a internet
  4. Control total: puedes usar cualquier modelo open-source
Requisito: Un modelo local requiere GPU o suficiente RAM. Para modelos de 8B parámetros se recomiendan al menos 16GB de RAM. Para modelos de 70B, una GPU con 24GB VRAM o más.