- basiert auf openwebui
- models werden über Services deployed, entweder per ollama oder openai-api compatible
- web search enabled
- tool / function use möglich, muss angelegt werden
- vision modelle möglich (Bild upload)
- context length ist default auf 2048, die meisten model können sehr viel mehr, werden dann aber langsamer. Kann pro chat oder in den User Settings hochgesetzt werden (zB bis auf 128000 für Llama 3.2 3B)