Créer un modèle
La commande ollama create
est utilisée pour créer un modèle à partir d'un fichier Modelfile.
ollama create mymodel -f ./Modelfile
Cette commande crée un modèle nommé mymodel en utilisant les instructions définies dans le fichier Modelfile
.
Télécharger un modèle :
Pour télécharger un modèle, utilisez la commande suivante :
ollama pull llama3.2
Cette commande télécharge le modèle llama3.2 depuis la bibliothèque Ollama. Elle peut également être utilisée pour mettre à jour un modèle local. Seules les différences (diff) entre le modèle local et la version la plus récente seront téléchargées.
Supprimer un modèle :
Si vous souhaitez supprimer un modèle, vous pouvez utiliser la commande suivante :
ollama rm llama3.2
Cela supprimera le modèle llama3.2 de votre machine.
Copier un modèle :
Pour copier un modèle, utilisez la commande :
ollama cp llama3.2 my-model
Cela crée une copie du modèle llama3.2 sous le nom my-model.
Entrée multilignes :
Pour entrer plusieurs lignes de texte, vous pouvez entourer le texte avec des guillemets triples ("""
), comme suit :
>>> """Hello, ... world! ... """
Cela permet de saisir un texte réparti sur plusieurs lignes. Par exemple, cette entrée pourrait produire la sortie suivante :
I'm a basic program that prints the famous "Hello, world!" message to the console.
Modèles multimodaux :
Les modèles multimodaux permettent d'interagir avec des fichiers autres que du texte, comme des images. Par exemple, pour analyser une image avec un modèle multimodal, utilisez la commande :
ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"
Cela pourrait donner la réponse suivante :
The image features a yellow smiley face, which is likely the central focus of the picture.
Passer le prompt en argument :
Vous pouvez aussi passer un prompt directement en argument à la commande ollama run
. Par exemple :
$ ollama run llama3.2 "Summarize this file: $(cat README.md)"
Cela permet de résumer le contenu d'un fichier, comme le fichier README.md
. Le modèle peut générer un résumé tel que :
Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.
Afficher les informations sur un modèle :
Pour afficher les informations détaillées d'un modèle, utilisez la commande suivante :
ollama show llama3.2
Cela affiche des informations sur le modèle llama3.2, telles que sa version et ses paramètres.
Lister les modèles sur votre ordinateur :
Pour voir la liste de tous les modèles installés sur votre machine, utilisez cette commande :
ollama list
Lister les modèles actuellement chargés :
Pour voir quels modèles sont actuellement chargés en mémoire, utilisez la commande :
ollama ps
Arrêter un modèle en cours d'exécution :
Si vous souhaitez arrêter un modèle qui est en cours d'exécution, utilisez la commande suivante :
ollama stop llama3.2
Cela arrêtera le modèle llama3.2 en cours d'exécution.
Démarrer Ollama :
Si vous voulez démarrer Ollama sans utiliser l'application de bureau, vous pouvez utiliser la commande suivante :
ollama serve
Cela démarre Ollama en mode serveur, permettant ainsi d'interagir avec les modèles via une API sans l'interface graphique.
No Comments