Skip to main content

Utilisation de l'API

🌐 1. Interroger l’API locale d’Ollama

Par dĂ©faut, l’API Ă©coute sur :

http://localhost:11434

Exemple de requĂȘte API :

curl http://localhost:11434/api/generate \
  -d '{
        "model": "llama3",
        "prompt": "Bonjour, comment vas-tu ?"
      }'

🐳 2. Utilisation de l’API Ollama depuis Docker

Si vous exĂ©cutez des applications dans un conteneur Docker qui doivent appeler l’API Ollama situĂ©e sur l’hĂŽte, utilisez l’adresse suivante :

http://host.docker.internal:11434

Exemple depuis un conteneur :

curl http://host.docker.internal:11434/api/generate \
  -d '{"model": "llama3", "prompt": "Test depuis docker"}'

Remarque importante

  • host.docker.internal fonctionne automatiquement sur Docker Desktop (Windows / macOS).
  • Sur Linux, Docker ne fournit pas nativement ce DNS.\ S'il n'existe pas, vous pouvez forcer la rĂ©solution en ajoutant dans votre commande docker run :
docker run --add-host=host.docker.internal:host-gateway ...

Ainsi, l'accÚs depuis Docker fonctionnera comme prévu.


đŸ§Ș 3. Exemple simple depuis un script Python
import requests

payload = {
    "model": "llama3",
    "prompt": "Bonjour depuis Python !"
}

r = requests.post("http://localhost:11434/api/generate", json=payload)
print(r.text)