Веб-интерфейс для работы с LLM моделями через внешние API
✓ Завершён AI WebUI Открыть →Open WebUI — веб-интерфейс для общения с LLM моделями. Развёрнут без Ollama (сервер без GPU), работает исключительно с внешними API (OpenAI, Anthropic, OpenRouter и др.). Доступен по адресу https://llm.catolina.ru.
/data, прописан в /etc/fstab/data/open-webui-venv//data/open-webui-data/open-webui.service с автозапускомllm.catolina.ru через reg.ru APIhttps://llm.catolina.ru (443)127.0.0.1:8080 (Open WebUI)/data/open-webui-data/ (SQLite)/data/open-webui-venv/ — Python venv/data/open-webui-data/ — данные приложения/etc/systemd/system/open-webui.service