# Créer un modèle

La commande `ollama create` est utilisée pour créer un modèle à partir d'un fichier **Modelfile**.

```bash
ollama create mymodel -f ./Modelfile
```

Cette commande crée un modèle nommé **mymodel** en utilisant les instructions définies dans le fichier `Modelfile`.

**Télécharger un modèle :**

Pour télécharger un modèle, utilisez la commande suivante :

```bash
ollama pull llama3.2
```

Cette commande télécharge le modèle **llama3.2** depuis la bibliothèque Ollama. Elle peut également être utilisée pour **mettre à jour un modèle local**. Seules les différences (diff) entre le modèle local et la version la plus récente seront téléchargées.

**Supprimer un modèle :**

Si vous souhaitez supprimer un modèle, vous pouvez utiliser la commande suivante :

```bash
ollama rm llama3.2
```

Cela supprimera le modèle **llama3.2** de votre machine.

**Copier un modèle :**

Pour copier un modèle, utilisez la commande :

```bash
ollama cp llama3.2 my-model
```

Cela crée une copie du modèle **llama3.2** sous le nom **my-model**.

**Entrée multilignes :**

Pour entrer plusieurs lignes de texte, vous pouvez entourer le texte avec des guillemets triples (`"""`), comme suit :

```
>>> """Hello, ... world! ... """
```

Cela permet de saisir un texte réparti sur plusieurs lignes. Par exemple, cette entrée pourrait produire la sortie suivante :

```
I'm a basic program that prints the famous "Hello, world!" message to the console.
```

**Modèles multimodaux :**

Les modèles multimodaux permettent d'interagir avec des fichiers autres que du texte, comme des images. Par exemple, pour analyser une image avec un modèle multimodal, utilisez la commande :

```bash
ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"
```

Cela pourrait donner la réponse suivante :

```bash
The image features a yellow smiley face, which is likely the central focus of the picture.
```

**Passer le prompt en argument :**

Vous pouvez aussi passer un prompt directement en argument à la commande `ollama run`. Par exemple :

```bash
$ ollama run llama3.2 "Summarize this file: $(cat README.md)"
```

Cela permet de résumer le contenu d'un fichier, comme le fichier `README.md`. Le modèle peut générer un résumé tel que :

```bash
Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.
```

**Afficher les informations sur un modèle :**

Pour afficher les informations détaillées d'un modèle, utilisez la commande suivante :

```bash
ollama show llama3.2
```

Cela affiche des informations sur le modèle **llama3.2**, telles que sa version et ses paramètres.

**Lister les modèles sur votre ordinateur :**

Pour voir la liste de tous les modèles installés sur votre machine, utilisez cette commande :

```bash
ollama list
```

**Lister les modèles actuellement chargés :**

Pour voir quels modèles sont actuellement chargés en mémoire, utilisez la commande :

```bash
ollama ps
```

**Arrêter un modèle en cours d'exécution :**

Si vous souhaitez arrêter un modèle qui est en cours d'exécution, utilisez la commande suivante :

```bash
ollama stop llama3.2
```

Cela arrêtera le modèle **llama3.2** en cours d'exécution.

**Démarrer Ollama :**

Si vous voulez démarrer Ollama sans utiliser l'application de bureau, vous pouvez utiliser la commande suivante :

```bash
ollama serve
```

Cela démarre Ollama en mode serveur, permettant ainsi d'interagir avec les modèles via une API sans l'interface graphique.