Utilisation de l'API
đ 1. Interroger lâAPI locale dâOllama
Par dĂ©faut, lâAPI Ă©coute sur :
http://localhost:11434
Exemple de requĂȘte API :
curl http://localhost:11434/api/generate \
-d '{
"model": "llama3",
"prompt": "Bonjour, comment vas-tu ?"
}'
đł 2. Utilisation de lâAPI Ollama depuis Docker
Si vous exĂ©cutez des applications dans un conteneur Docker qui doivent appeler lâAPI Ollama situĂ©e sur lâhĂŽte, utilisez lâadresse suivante :
http://host.docker.internal:11434
Exemple depuis un conteneur :
curl http://host.docker.internal:11434/api/generate \
-d '{"model": "llama3", "prompt": "Test depuis docker"}'
Remarque importante
host.docker.internalfonctionne automatiquement sur Docker Desktop (Windows / macOS).- Sur Linux, Docker ne fournit pas nativement ce DNS.\ S'il n'existe pas, vous pouvez forcer la résolution en ajoutant dans votre commande
docker run:
docker run --add-host=host.docker.internal:host-gateway ...
Ainsi, l'accÚs depuis Docker fonctionnera comme prévu.
đ§Ș 3. Exemple simple depuis un script Python
import requests
payload = {
"model": "llama3",
"prompt": "Bonjour depuis Python !"
}
r = requests.post("http://localhost:11434/api/generate", json=payload)
print(r.text)