Cerewro en modo local: IA privada sin nube
Cerewro puede configurarse para usar modelos de IA locales (Ollama, LM Studio, Jan) en lugar de enviar datos a la nube. Tus conversaciones, archivos y comandos permanecen en tu máquina.
Configurar modelo local
# En el archivo de configuración de Cerewro
provider: ollama
model: llama3.2:8b
base_url: http://localhost:11434/v1
Proveedores locales compatibles
| Proveedor | URL por defecto | Modelos recomendados |
|---|---|---|
| Ollama | http://localhost:11434 | llama3.2, mistral, phi4 |
| LM Studio | http://localhost:1234 | Qualquier GGUF |
| Jan | http://localhost:1337 | llama3, gemma2 |
Ventajas del modo local
- Privacidad total: ningún dato sale de tu máquina
- Sin límites de tokens: no hay costos por uso de API
- Funciona offline: no requiere conexión a internet
- Control total: puedes usar cualquier modelo open-source
Requisito: Un modelo local requiere GPU o suficiente RAM. Para modelos de 8B parámetros se recomiendan al menos 16GB de RAM. Para modelos de 70B, una GPU con 24GB VRAM o más.