Skip to main content

Créer un modèle

La commande ollama create est utilisée pour créer un modèle à partir d'un fichier Modelfile.

ollama create mymodel -f ./Modelfile

Cette commande crée un modèle nommé mymodel en utilisant les instructions définies dans le fichier Modelfile.

Télécharger un modèle :

Pour télécharger un modèle, utilisez la commande suivante :

ollama pull llama3.2

Cette commande télécharge le modèle llama3.2 depuis la bibliothèque Ollama. Elle peut également être utilisée pour mettre à jour un modèle local. Seules les différences (diff) entre le modèle local et la version la plus récente seront téléchargées.

Supprimer un modèle :

Si vous souhaitez supprimer un modèle, vous pouvez utiliser la commande suivante :

ollama rm llama3.2

Cela supprimera le modèle llama3.2 de votre machine.

Copier un modèle :

Pour copier un modèle, utilisez la commande :

ollama cp llama3.2 my-model

Cela crée une copie du modèle llama3.2 sous le nom my-model.

Entrée multilignes :

Pour entrer plusieurs lignes de texte, vous pouvez entourer le texte avec des guillemets triples ("""), comme suit :

>>> """Hello, ... world! ... """

Cela permet de saisir un texte réparti sur plusieurs lignes. Par exemple, cette entrée pourrait produire la sortie suivante :

I'm a basic program that prints the famous "Hello, world!" message to the console.

Modèles multimodaux :

Les modèles multimodaux permettent d'interagir avec des fichiers autres que du texte, comme des images. Par exemple, pour analyser une image avec un modèle multimodal, utilisez la commande :

ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"

Cela pourrait donner la réponse suivante :

The image features a yellow smiley face, which is likely the central focus of the picture.

Passer le prompt en argument :

Vous pouvez aussi passer un prompt directement en argument à la commande ollama run. Par exemple :

$ ollama run llama3.2 "Summarize this file: $(cat README.md)"

Cela permet de résumer le contenu d'un fichier, comme le fichier README.md. Le modèle peut générer un résumé tel que :

Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.

Afficher les informations sur un modèle :

Pour afficher les informations détaillées d'un modèle, utilisez la commande suivante :

ollama show llama3.2

Cela affiche des informations sur le modèle llama3.2, telles que sa version et ses paramètres.

Lister les modèles sur votre ordinateur :

Pour voir la liste de tous les modèles installés sur votre machine, utilisez cette commande :

ollama list

Lister les modèles actuellement chargés :

Pour voir quels modèles sont actuellement chargés en mémoire, utilisez la commande :

ollama ps

Arrêter un modèle en cours d'exécution :

Si vous souhaitez arrêter un modèle qui est en cours d'exécution, utilisez la commande suivante :

ollama stop llama3.2

Cela arrêtera le modèle llama3.2 en cours d'exécution.

Démarrer Ollama :

Si vous voulez démarrer Ollama sans utiliser l'application de bureau, vous pouvez utiliser la commande suivante :

ollama serve

Cela démarre Ollama en mode serveur, permettant ainsi d'interagir avec les modèles via une API sans l'interface graphique.