diff --git a/DOCKERHUB.md b/DOCKERHUB.md index 3ab8748..58333f3 100644 --- a/DOCKERHUB.md +++ b/DOCKERHUB.md @@ -2,6 +2,8 @@ Ein schlanker Reverse-Proxy für [Ollama](https://ollama.com), der API-Keys mit konfigurierbaren Token- und Request-Quoten verwaltet. Eingehende Anfragen im OpenAI-kompatiblen Format werden authentifiziert, auf Quota geprüft und an den konfigurierten Ollama-Server weitergeleitet. +Ollama muss dabei nicht auf demselben Host laufen — `OLLAMA_URL` kann auf jeden erreichbaren Server zeigen, also auf den Docker-Host selbst, einen anderen Rechner im Netzwerk oder einen Remote-Server. + ## Funktionen - OpenAI-kompatibler Endpunkt (`/v1/chat/completions`, `/v1/models`) @@ -33,9 +35,9 @@ Ein schlanker Reverse-Proxy für [Ollama](https://ollama.com), der API-Keys mit | `APP_TZ` | `Europe/Berlin` | Zeitzone für Tages-/Monats-Reset der Quoten | | `LOG_FILE` | `logs/usage.log` | Pfad der rotierenden Nutzungs-Logdatei | -## Docker Compose – Ollama auf dem Host, SQLite +## Docker Compose – Ollama extern, SQLite -Wenn Ollama bereits als Prozess auf dem Host läuft und nicht in Docker betrieben werden soll. +Wenn Ollama außerhalb von Docker läuft — auf dem Docker-Host oder einem anderen erreichbaren Server. `OLLAMA_URL` entsprechend anpassen. ```yaml services: @@ -46,7 +48,7 @@ services: - "8000:8000" environment: ADMIN_PASSWORD: changeme - OLLAMA_URL: http://host.docker.internal:11434 + OLLAMA_URL: http://host.docker.internal:11434 # oder http://:11434 DEFAULT_MODEL: llama3 APP_TZ: Europe/Berlin volumes: @@ -60,7 +62,7 @@ volumes: llmproxy-data: ``` -## Docker Compose – Ollama auf dem Host, PostgreSQL +## Docker Compose – Ollama extern, PostgreSQL ```yaml services: @@ -71,7 +73,7 @@ services: - "8000:8000" environment: ADMIN_PASSWORD: changeme - OLLAMA_URL: http://host.docker.internal:11434 + OLLAMA_URL: http://host.docker.internal:11434 # oder http://:11434 DEFAULT_MODEL: llama3 APP_TZ: Europe/Berlin DATABASE_URL: postgresql://llmproxy:secret@db:5432/llmproxy