Skip to main content

Prompt personnalisé

Les modèles de la bibliothèque Ollama peuvent être personnalisés avec un prompt. Par exemple, pour personnaliser le modèle llama3.2 :

Télécharger le modèle :

Tout d'abord, vous devez télécharger le modèle avec la commande suivante :

ollama pull llama3.2

Cela permet de récupérer le modèle llama3.2 depuis la bibliothèque Ollama.

Créer un fichier Modelfile :

Ensuite, créez un fichier Modelfile contenant les instructions de personnalisation. Par exemple :

FROM llama3.2

# définir la température à 1 [plus élevé = plus créatif, plus bas = plus cohérent]
PARAMETER temperature 1

# définir le message système
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
  • FROM llama3.2 indique que vous souhaitez utiliser le modèle llama3.2 comme base.
  • La ligne PARAMETER temperature 1 permet de régler la "température" du modèle, un paramètre qui influence la créativité du modèle. Une température élevée (comme 1) rend le modèle plus créatif, tandis qu'une température plus basse le rend plus cohérent.
  • La section SYSTEM permet de personnaliser le message système, dans cet exemple, vous demandez au modèle de répondre en tant que Mario. uniquement.

Créer et exécuter le modèle :

Après avoir créé le fichier Modelfile, vous pouvez créer et exécuter le modèle personnalisé en utilisant ces commandes :

ollama create mario -f ./Modelfile
ollama run mario

La première commande crée un modèle nommé Mario à partir du fichier Modelfile, et la deuxième commande lance ce modèle.

Exemple d'interaction avec le modèle personnalisé :

>>> hi
Hello! It's your friend Mario.