# Installation avec docker

Avant de faire l'installation de Open-WebUI, merci de vous référer à l'installation de docker.

##### **<span style="text-decoration: underline;">Installation avec la configuration par défaut</span>**

**Si Ollama est sur votre ordinateur, utilisez cette commande :**

```bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```

**Si Ollama est sur un serveur différent, utilisez cette commande :**

Pour vous connecter à Ollama sur un autre serveur, changez l'URL OLLAMA\_BASE\_URL par l'URL du serveur :

```bash
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```

**Pour exécuter Open WebUI avec le support GPU Nvidia, utilisez cette commande :**

```bash
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
```

##### <span style="text-decoration: underline;">Installation pour une utilisation uniquement avec l'API OpenAI</span>

**Si vous utilisez uniquement l'API OpenAI, utilisez cette commande :**

```bash
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```

Installation d'Open WebUI avec le support intégré d'Ollama  
Cette méthode d'installation utilise une image de conteneur unique qui regroupe Open WebUI avec Ollama, permettant une configuration simplifiée avec une seule commande. Choisissez la commande appropriée en fonction de votre configuration matérielle :

**Avec le support GPU : Utilisez les ressources GPU en exécutant la commande suivante :**

```bash
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
```

Pour un usage uniquement avec le CPU : Si vous n'utilisez pas de GPU, utilisez cette commande à la place :

```bash
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
```

Les deux commandes facilitent une installation intégrée et sans tracas de Open WebUI et Ollama, garantissant une mise en place rapide de l'ensemble.

Après l'installation, vous pouvez accéder à Open WebUI à l'adresse [http://localhost:3000](http://localhost:3000). Profitez-en ! 😄

##### **<span style="text-decoration: underline;">Erreur de connexion Docker</span>**

Si vous rencontrez une erreur de connexion lorsque vous essayez d'accéder à Ollama, cela peut être dû au fait que le conteneur WebUI Docker ne peut pas communiquer avec le serveur Ollama qui fonctionne sur votre hôte. Voici comment résoudre cela :

Ajustez les paramètres réseau 🛠️ : Utilisez le flag `--network=host` dans votre commande Docker. Cela relie directement votre conteneur au réseau de votre hôte.

Changez le port : N'oubliez pas que le port interne passe de 3000 à 8080.

**Exemple de commande Docker :**

```
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```

🔗 Après avoir exécuté cette commande, votre WebUI devrait être disponible à l'adresse [http://localhost:8080](http://localhost:8080/).