Cerewro puede configurarse para usar modelos de IA locales (Ollama, LM Studio, Jan) en lugar de enviar datos a la nube. Tus conversaciones, archivos y comandos permanecen en tu máquina.
# En el archivo de configuración de Cerewro
provider: ollama
model: llama3.2:8b
base_url: http://localhost:11434/v1
| Proveedor | URL por defecto | Modelos recomendados |
|---|---|---|
| Ollama | http://localhost:11434 | llama3.2, mistral, phi4 |
| LM Studio | http://localhost:1234 | Qualquier GGUF |
| Jan | http://localhost:1337 | llama3, gemma2 |