avec nginx

This commit is contained in:
2026-02-24 14:21:03 +01:00
parent c8ca363996
commit f0b1dd07f6
2 changed files with 39 additions and 7 deletions

View File

@ -1,12 +1,23 @@
version: '3.8'
services:
# --- L'INTERFACE (La Glue) ---
# --- LE PORTIER (Point d'entrée pour tes 20 étudiants) ---
gateway:
image: nginx:latest
ports:
- "80:80"
volumes:
- ./nginx/default.conf:/etc/nginx/conf.d/default.conf
networks:
- studio-net
depends_on:
- open-webui
# --- L'INTERFACE (Open WebUI) ---
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
# On ne publie plus le port 3000 vers l'extérieur, Nginx s'en charge en interne
environment:
- OLLAMA_BASE_URL=http://ollama:11434
- WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY:-supersecretkey}
@ -16,7 +27,7 @@ services:
- studio-net
restart: always
# --- LE CERVEAU (LLM) ---
# --- LE CERVEAU (Ollama) ---
ollama:
image: ollama/ollama:latest
container_name: ollama
@ -32,17 +43,18 @@ services:
networks:
- studio-net
# --- LE PREMIER SERVICE AUDIO (Exemple) ---
# --- LE SERVICE AUDIO (Ton API) ---
audio-api:
build:
context: ./services/audio-api # On créera ce dossier juste après
context: ./services/audio-api
container_name: audio-api
# On laisse le port 7860 ouvert au cas où tu voudrais tester en direct
ports:
- "7860:7860"
deploy:
resources:
limits:
memroy: 16G # On empêche un service de manger toute la RAM système
memory: 32G # 64 Go de VRAM permet d'être large sur la RAM système aussi
reservations:
devices:
- driver: nvidia