Open source

L'open source désigne des logiciels dont le code source est librement accessible, permettant à tout le monde de le modifier, l'améliorer et le redistribuer. Ce modèle favorise la collaboration et l'innovation, avec des exemples comme Linux ou Firefox.

OpenProject

OpenProject est une plateforme de gestion de projet open-source qui permet de planifier, suivre et collaborer sur des projets. Elle offre des fonctionnalités comme la gestion des tâches, des diagrammes de Gantt, le suivi des bugs, et la gestion des sprints pour les équipes agiles. Son caractère open-source permet de la personnaliser et de l'adapter aux besoins des utilisateurs.

OpenProject

Fonctionnalités entreprise

Source : OpenProject Enterprise mode for free · GitHub

Solution :

Version du cœur : OpenProject 14.6.3
Version de PostgreSQL : 13.16

Mise à jour :

Si vous souhaitez mettre à jour OpenProject, il est recommandé de retirer le fichier et de remettre le fichier d'origine enterprise_token_origin.rb avant de procéder à la mise à jour. Si vous choisissez de procéder à la mise à jour sans retirer le fichier, assurez-vous ensuite d'exécuter la commande suivante :
sudo openproject reconfigure
Cela permettra de reconfigurer OpenProject et de restaurer son bon fonctionnement (ne modifiez rien lors de la reconfiguration pour conserver vos données). Après cette opération, il vous faudra remettre le fichier enterprise_token.rb manuellement.

Notez également qu'en cas de développement spécifique ou de modifications apportées au logiciel, la mise à jour peut entraîner la suppression ou rendre obsolètes vos ajouts.


Avertissement concernant l’utilisation des fonctionnalités Enterprise payantes via un contournement

L'utilisation de fonctionnalités Enterprise payantes d'OpenProject activées par un contournement (par exemple, le remplacement de fichiers dans le code source) est strictement réservée à des fins de test ou d'évaluation dans un environnement non productif. Cette méthode de contournement n'est pas autorisée par OpenProject et peut entraîner des risques juridiques et techniques.

Si vous utilisez ces fonctionnalités dans un environnement de production, vous risquez de rencontrer des problèmes de stabilité ou de compatibilité, et OpenProject se réserve le droit de refuser tout support technique en raison de l'exploitation de ces fonctionnalités via un contournement. L'utilisation non conforme peut également entraîner des sanctions, notamment en cas de non-respect des conditions d'utilisation d'OpenProject.

Nous vous conseillons vivement de souscrire à une licence officielle si vous souhaitez bénéficier des fonctionnalités Enterprise dans un cadre de production et recevoir un support dédié.

OpenProject

Mise à jour

Source : Upgrading your OpenProject installation

Voici les étapes pour mettre à jour OpenProject en utilisant les informations de la documentation officielle.

  1. Sauvegarde :

    sudo openproject run backup

    Sauvegarde ton installation actuelle pour éviter toute perte de données.

  2. Mise à jour du dépôt :

    sudo apt-get update

    Mets à jour ton dépôt de paquets pour obtenir les dernières versions disponibles.

  3. Mise à jour d’OpenProject :

    sudo apt-get install --only-upgrade openproject

    Installe la dernière version d’OpenProject.

  4. Configuration :

    sudo openproject configure

    Exécute la commande de configuration pour appliquer les nouvelles modifications.

  5. Redémarrage des services :

    sudo openproject run restart

    Redémarre les services pour appliquer les changements.

  6. Vérification : Accède à ton instance OpenProject via le navigateur pour vérifier que tout fonctionne correctement.

Voici la commande compilé :

sudo openproject run backup && sudo apt-get update && sudo apt-get install --only-upgrade openproject && sudo openproject configure && sudo openproject run restart

Concernant les fonctionnalités entreprise, si elles sont activées sur votre instance OpenProject, merci de vous référer à la section Mise à jour du chapitre Fonctionnalités entreprise.

Mise à jour pour des versions majeur :

Les versions majeur du logiciel sur le noyau Linux nécessite un changement dans le fichier de mise à jour des paquets.

Voici la ligne à change :

Modification du fichier :

sudo nano /etc/apt/sources.list.d/openproject.list

Changer $VERSION$ par la version majeur (e.g. .../stable/15/debian...)

deb https://dl.packager.io/srv/deb/opf/openproject/stable/$VERSION$/debian 12 main

Enregistrer et quitter : Après avoir modifié l'URL, appuyez sur Ctrl + O pour enregistrer le fichier, puis Ctrl + X pour quitter l'éditeur.

Ollama

Ollama est une plateforme open-source qui permet de créer, exécuter et partager des modèles de langage de grande taille localement sur des systèmes macOS et Linux1. Elle offre une interface en ligne de commande simple pour gérer ces modèles et inclut une bibliothèque de modèles pré-construits

Ollama

Installation

Source : GitHub - ollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models.

Version : 0.4.5

Mise à jour du système :

sudo apt update && sudo apt upgrade -y && sudo apt full-upgrade -y && sudo apt autoremove -y && sudo apt clean

Installer CURL :

sudo apt-get install curl

Récupération de la source :

curl -fsSL https://ollama.com/install.sh | sh
Ajouter Ollama en service de démarrage :

Créez un utilisateur pour Ollama :

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama

Ajoutez votre utilisateur actuel au groupe ollama :

sudo usermod -a -G ollama $(whoami)

Créez un fichier de service dans /etc/systemd/system/ollama.service :

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

Attention ! Pour la ligne ExecStart=/usr/bin/ollama serve, vous devez correctement localiser l'installation de votre ollama, exemple ExecStart=/usr/local/bin/ollama serve.

Ensuite, démarrez le service :

sudo systemctl daemon-reload
sudo systemctl enable ollama

Voir les logs :

journalctl -e -u ollama
Ollama

Mise à jour

Pour mettre à jour Ollama, vous pouvez exécuter à nouveau la commande suivante :

curl -fsSL https://ollama.com/install.sh | sh

Cela réinstalle le script d'installation d'Ollama, et peut écraser des fichiers existants ou entraîner la perte de configurations personnalisées. Assurez-vous de sauvegarder vos données et configurations importantes avant de procéder à une mise à jour pour éviter toute perte de données.

Ollama

Modèle personnalisé

Importation depuis GGUF

Ollama prend en charge l'importation de modèles au format GGUF via un fichier Modelfile.

Créer un fichier Modelfile :

Créez un fichier nommé Modelfile, qui doit contenir une instruction FROM avec le chemin local du modèle que vous souhaitez importer.

FROM ./vicuna-33b.Q4_0.gguf

Cela indique à Ollama de charger le modèle spécifié depuis le fichier local vicuna-33b.Q4_0.gguf.

Créer le modèle dans Ollama :

Une fois le fichier Modelfile créé, utilisez la commande suivante pour que le modèle soit intégré dans Ollama :

ollama create example -f Modelfile

Cette commande utilise le fichier Modelfile pour créer un modèle dans Ollama sous le nom "example".

Exécuter le modèle :

Enfin, vous pouvez exécuter le modèle avec la commande suivante :

ollama run example

Cela lance le modèle que vous venez de créer, ici appelé "example", pour qu'il commence à traiter des demandes ou des tâches.

Ollama

Prompt personnalisé

Les modèles de la bibliothèque Ollama peuvent être personnalisés avec un prompt. Par exemple, pour personnaliser le modèle llama3.2 :

Télécharger le modèle :

Tout d'abord, vous devez télécharger le modèle avec la commande suivante :

ollama pull llama3.2

Cela permet de récupérer le modèle llama3.2 depuis la bibliothèque Ollama.

Créer un fichier Modelfile :

Ensuite, créez un fichier Modelfile contenant les instructions de personnalisation. Par exemple :

FROM llama3.2

# définir la température à 1 [plus élevé = plus créatif, plus bas = plus cohérent]
PARAMETER temperature 1

# définir le message système
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""

Créer et exécuter le modèle :

Après avoir créé le fichier Modelfile, vous pouvez créer et exécuter le modèle personnalisé en utilisant ces commandes :

ollama create mario -f ./Modelfile
ollama run mario

La première commande crée un modèle nommé Mario à partir du fichier Modelfile, et la deuxième commande lance ce modèle.

Exemple d'interaction avec le modèle personnalisé :

>>> hi
Hello! It's your friend Mario.
Ollama

Désinstallation

Supprimez le service Ollama :

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

Supprimez le binaire ollama de votre répertoire bin (cela peut être /usr/local/bin, /usr/bin, ou /bin).

sudo rm $(which ollama)

Supprimez les modèles téléchargés ainsi que l'utilisateur et le groupe ollama créés pour le service :

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

Cela entraînera la suppression définitive des fichiers d'Ollama, y compris les modèles téléchargés et l'utilisateur associé. Assurez-vous de sauvegarder vos données et configurations avant de procéder à la désinstallation, car cette action est irréversible et pourrait supprimer des informations importantes.

Ollama

Créer un modèle

La commande ollama create est utilisée pour créer un modèle à partir d'un fichier Modelfile.

ollama create mymodel -f ./Modelfile

Cette commande crée un modèle nommé mymodel en utilisant les instructions définies dans le fichier Modelfile.

Télécharger un modèle :

Pour télécharger un modèle, utilisez la commande suivante :

ollama pull llama3.2

Cette commande télécharge le modèle llama3.2 depuis la bibliothèque Ollama. Elle peut également être utilisée pour mettre à jour un modèle local. Seules les différences (diff) entre le modèle local et la version la plus récente seront téléchargées.

Supprimer un modèle :

Si vous souhaitez supprimer un modèle, vous pouvez utiliser la commande suivante :

ollama rm llama3.2

Cela supprimera le modèle llama3.2 de votre machine.

Copier un modèle :

Pour copier un modèle, utilisez la commande :

ollama cp llama3.2 my-model

Cela crée une copie du modèle llama3.2 sous le nom my-model.

Entrée multilignes :

Pour entrer plusieurs lignes de texte, vous pouvez entourer le texte avec des guillemets triples ("""), comme suit :

>>> """Hello, ... world! ... """

Cela permet de saisir un texte réparti sur plusieurs lignes. Par exemple, cette entrée pourrait produire la sortie suivante :

I'm a basic program that prints the famous "Hello, world!" message to the console.

Modèles multimodaux :

Les modèles multimodaux permettent d'interagir avec des fichiers autres que du texte, comme des images. Par exemple, pour analyser une image avec un modèle multimodal, utilisez la commande :

ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"

Cela pourrait donner la réponse suivante :

The image features a yellow smiley face, which is likely the central focus of the picture.

Passer le prompt en argument :

Vous pouvez aussi passer un prompt directement en argument à la commande ollama run. Par exemple :

$ ollama run llama3.2 "Summarize this file: $(cat README.md)"

Cela permet de résumer le contenu d'un fichier, comme le fichier README.md. Le modèle peut générer un résumé tel que :

Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.

Afficher les informations sur un modèle :

Pour afficher les informations détaillées d'un modèle, utilisez la commande suivante :

ollama show llama3.2

Cela affiche des informations sur le modèle llama3.2, telles que sa version et ses paramètres.

Lister les modèles sur votre ordinateur :

Pour voir la liste de tous les modèles installés sur votre machine, utilisez cette commande :

ollama list

Lister les modèles actuellement chargés :

Pour voir quels modèles sont actuellement chargés en mémoire, utilisez la commande :

ollama ps

Arrêter un modèle en cours d'exécution :

Si vous souhaitez arrêter un modèle qui est en cours d'exécution, utilisez la commande suivante :

ollama stop llama3.2

Cela arrêtera le modèle llama3.2 en cours d'exécution.

Démarrer Ollama :

Si vous voulez démarrer Ollama sans utiliser l'application de bureau, vous pouvez utiliser la commande suivante :

ollama serve

Cela démarre Ollama en mode serveur, permettant ainsi d'interagir avec les modèles via une API sans l'interface graphique.

Ollama

Supprimer un modèle

Supprimer un modèle dans la list :

ollama rm llama3.2

Open-WebUI

Interface IA conviviale (prend en charge Ollama, l’API OpenAI, ...)

Open-WebUI

Installation avec pip

Source : GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

ATTENTION !

L'installation avec pip rend la mise à jour du logiciel complexe. Faite cette installation pour des tests, ou du développement spécifique et non une utilisation en production.

Installation via Python pip

Open WebUI peut être installé via pip, l'installateur de paquets Python. Avant de procéder, assurez-vous d'utiliser Python 3.11 pour éviter les problèmes de compatibilité.

Installer Open WebUI :

Ouvrez votre terminal et exécutez la commande suivante pour installer Open WebUI :

pip install open-webui

Exécuter Open WebUI :

Une fois l'installation terminée, vous pouvez démarrer Open WebUI en exécutant la commande suivante :

open-webui serve

Cela démarrera le serveur Open WebUI, que vous pourrez accéder à l'adresse suivante : http://localhost:8080.

Erreur possible :

Erreur lors de l'installation de open-webui via pip :

root@srv-ia:/home/ia# pip install open-webui
error: externally-managed-environment

× This environment is externally managed
╰─> To install Python packages system-wide, try apt install
    python3-xyz, where xyz is the package you are trying to
    install.

    If you wish to install a non-Debian-packaged Python package,
    create a virtual environment using python3 -m venv path/to/venv.
    Then use path/to/venv/bin/python and path/to/venv/bin/pip. Make
    sure you have python3-full installed.

    If you wish to install a non-Debian packaged Python application,
    it may be easiest to use pipx install xyz, which will manage a
    virtual environment for you. Make sure you have pipx installed.

    See /usr/share/doc/python3.11/README.venv for more information.

note: If you believe this is a mistake, please contact your Python installation or OS distribution provider. You can override this, at the risk of breaking your Python installation or OS, by passing --break-system-packages.
hint: See PEP 668 for the detailed specification.

Utiliser un environnement virtuel

La meilleure pratique pour installer des paquets Python sans affecter l'environnement système est de créer un environnement virtuel. Cela permet d'avoir une installation isolée pour vos paquets Python.

Étapes pour créer un environnement virtuel :

  1. Installez python3-venv (si ce n'est pas déjà fait) :

     

    sudo apt install python3-venv

     

  2. Créez un environnement virtuel :

    Dans le répertoire où vous souhaitez installer vos paquets, créez un environnement virtuel :

     

    python3 -m venv mon_venv

    Cette commande crée un dossier mon_venv qui contient une installation isolée de Python.

  3. Activez l'environnement virtuel :

     

    source mon_venv/bin/activate

    Vous verrez probablement un changement dans l'invite de commande, indiquant que l'environnement virtuel est activé (par exemple, (mon_venv) au début de la ligne).

     

  4. Installez open-webui dans l'environnement virtuel :

    Une fois l'environnement activé, vous pouvez installer open-webui comme d'habitude :

     

    pip install open-webui
  5. Lancez l'application avec nohup et redirigez la sortie vers un fichier de log, puis lancez-le en arrière-plan :

     

    nohup open-webui serve > open-webui.log 2>&1 &
      • nohup permet au processus de ne pas être tué lorsqu'une session se termine.
      • > open-webui.log 2>&1 redirige les sorties standard (stdout) et les erreurs (stderr) vers un fichier open-webui.log.
      • & place le processus en arrière-plan.

    Vous pouvez quitter la session SSH ou votre terminal normalement, l'application continuera de fonctionner.

    Pour voir si le processus est toujours en cours d'exécution :

    ps aux | grep open-webui
  6. Désactivez l'environnement virtuel quand vous avez terminé :
deactivate

Cela vous ramènera à votre environnement système Python.

Open-WebUI

Installation avec docker

Avant de faire l'installation de Open-WebUI, merci de vous référer à l'installation de docker.

Installation avec la configuration par défaut

Si Ollama est sur votre ordinateur, utilisez cette commande :

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Si Ollama est sur un serveur différent, utilisez cette commande :

Pour vous connecter à Ollama sur un autre serveur, changez l'URL OLLAMA_BASE_URL par l'URL du serveur :

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Pour exécuter Open WebUI avec le support GPU Nvidia, utilisez cette commande :

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Installation pour une utilisation uniquement avec l'API OpenAI

Si vous utilisez uniquement l'API OpenAI, utilisez cette commande :

docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Installation d'Open WebUI avec le support intégré d'Ollama
Cette méthode d'installation utilise une image de conteneur unique qui regroupe Open WebUI avec Ollama, permettant une configuration simplifiée avec une seule commande. Choisissez la commande appropriée en fonction de votre configuration matérielle :

Avec le support GPU : Utilisez les ressources GPU en exécutant la commande suivante :

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Pour un usage uniquement avec le CPU : Si vous n'utilisez pas de GPU, utilisez cette commande à la place :

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Les deux commandes facilitent une installation intégrée et sans tracas de Open WebUI et Ollama, garantissant une mise en place rapide de l'ensemble.

Après l'installation, vous pouvez accéder à Open WebUI à l'adresse http://localhost:3000. Profitez-en ! 😄

 

Erreur de connexion Docker

Si vous rencontrez une erreur de connexion lorsque vous essayez d'accéder à Ollama, cela peut être dû au fait que le conteneur WebUI Docker ne peut pas communiquer avec le serveur Ollama qui fonctionne sur votre hôte. Voici comment résoudre cela :

Ajustez les paramètres réseau 🛠️ : Utilisez le flag --network=host dans votre commande Docker. Cela relie directement votre conteneur au réseau de votre hôte.

Changez le port : N'oubliez pas que le port interne passe de 3000 à 8080.

Exemple de commande Docker :

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🔗 Après avoir exécuté cette commande, votre WebUI devrait être disponible à l'adresse http://localhost:8080.

Open-WebUI

Mise à jour

Mise à jour vers Open WebUI tout en conservant vos données

Si vous souhaitez mettre à jour vers la nouvelle image tout en migrant tous vos paramètres précédents tels que les conversations, les invites, les documents, etc.

Vous pouvez effectuer les étapes suivantes :

docker rm -f ollama-webui
docker pull ghcr.io/open-webui/open-webui:main
# Crée un nouveau volume et utilise un conteneur temporaire pour copier d'un volume à un autre selon https://github.com/moby/moby/issues/31154#issuecomment-360531460
docker volume create --name open-webui
docker run --rm -v ollama-webui:/from -v open-webui:/to alpine ash -c "cd /from ; cp -av . /to"
[insérez la commande équivalente que vous avez utilisée pour installer avec le nouveau nom de l'image Docker]

Une fois que vous avez vérifié que toutes les données ont été migrées, vous pouvez supprimer l'ancien volume avec la commande suivante :

docker volume rm ollama-webui

Passage depuis un dépôt Git local
Si vous veniez d'une installation Git où vous avez utilisé docker compose up dans le répertoire du projet, vos volumes auront un préfixe avec le nom du dossier. Par conséquent, si votre chemin OpenWebUI était : /home/myserver/ollama-webui/, les volumes seraient nommés "ollama-webui_open-webui" et "ollama-webui_ollama".

Pour copier le contenu vers une installation Docker conventionnelle, vous pouvez exécuter des commandes de migration similaires. Dans notre cas, les commandes seraient les suivantes :

docker rm -f open-webui
docker rm -f ollama
docker pull ghcr.io/open-webui/open-webui:main
docker pull ghcr.io/open-webui/open-webui:ollama
docker volume create --name open-webui
docker volume create --name ollama
docker run --rm -v ollama-webui_open-webui:/from -v open-webui:/to alpine ash -c "cd /from ; cp -av . /to"
docker run --rm -v ollama-webui_ollama:/from -v ollama:/to alpine ash -c "cd /from ; cp -av . /to"

Selon que vous ayez installé Ollama ou que vous ayez déjà les mêmes noms de volumes en place, certaines des commandes pourraient générer des erreurs, mais elles peuvent généralement être ignorées en toute sécurité car nous procédons à un écrasement.

Ensuite, lancez les deux conteneurs comme d'habitude, comme décrit dans le guide de démarrage :

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Une fois que vous avez vérifié que toutes les données ont été migrées, vous pouvez supprimer l'ancien volume avec la commande docker volume rm mentionnée ci-dessus.

Docker

Docker est une plateforme permettant de lancer certaines applications dans des conteneurs logiciels lancée en 2013.

Docker

Installation (debian)

Mettre à jour votre système

Avant d'installer Docker, il est recommandé de mettre à jour votre système Debian pour s'assurer que tous les paquets sont à jour.

sudo apt update && sudo apt upgrade -y

Installer les dépendances nécessaires

Docker nécessite quelques outils comme apt-transport-https, ca-certificates, curl, software-properties-common et gnupg2. Installez-les en utilisant la commande suivante :

sudo apt install apt-transport-https ca-certificates curl software-properties-common gnupg2 -y

Ajouter la clé GPG officielle de Docker

Docker signe ses paquets avec une clé GPG pour garantir leur authenticité. Vous devez ajouter cette clé pour pouvoir installer Docker depuis les dépôts officiels.

curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

Ajouter le dépôt Docker

Ensuite, vous devez ajouter le dépôt officiel de Docker à votre liste de sources APT. Exécutez cette commande pour ajouter le dépôt stable :

echo "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/debian $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

Mettre à jour les sources

Une fois le dépôt Docker ajouté, vous devez mettre à jour la liste des paquets disponibles pour que le système reconnaisse les paquets Docker :

sudo apt update

Installer Docker

Vous pouvez maintenant installer Docker. Utilisez la commande suivante pour installer Docker CE (Community Edition) :

sudo apt install docker-ce docker-ce-cli containerd.io -y

Vérifier l'installation

Une fois Docker installé, vérifiez qu'il fonctionne correctement en exécutant la commande suivante pour voir la version de Docker installée :

docker --version

Démarrer et activer le service Docker

Par défaut, le service Docker devrait démarrer automatiquement après l'installation. Si ce n'est pas le cas, vous pouvez le démarrer manuellement et l'activer pour qu'il démarre automatiquement au démarrage de votre VM :

sudo systemctl start docker
sudo systemctl enable docker

Vérifier que Docker fonctionne correctement

Pour vérifier que Docker fonctionne correctement, exécutez la commande suivante, qui va télécharger et exécuter un conteneur test :

sudo docker run hello-world

Si tout est correctement installé, vous devriez voir un message vous indiquant que Docker fonctionne correctement.

Ajouter votre utilisateur au groupe Docker (facultatif)

Si vous souhaitez exécuter des commandes Docker sans avoir à utiliser sudo à chaque fois, vous pouvez ajouter votre utilisateur au groupe docker :

sudo usermod -aG docker $USER

Pour que ce changement prenne effet, vous devez vous déconnecter puis vous reconnecter à votre session ou exécuter la commande suivante :

newgrp docker
Docker

Mise à jour (debian)

Mettre à jour la liste des dépôts

La première étape consiste à mettre à jour la liste des dépôts pour s'assurer que vous avez les dernières informations sur les paquets disponibles.

sudo apt update

Vérifier les versions disponibles

Avant de mettre à jour Docker, vous pouvez vérifier si une nouvelle version est disponible. Pour cela, utilisez la commande suivante :

apt list --upgradable

Cela affichera la liste des paquets pouvant être mis à jour, y compris Docker si une nouvelle version est disponible.

Mettre à jour Docker

Si Docker est inclus dans la liste des paquets à mettre à jour, vous pouvez procéder à la mise à jour avec cette commande :

sudo apt upgrade docker-ce docker-ce-cli containerd.io

Cela mettra à jour Docker et ses composants principaux.

(Facultatif) Mettre à jour tous les paquets du système

Si vous voulez mettre à jour l'ensemble des paquets de votre système, y compris Docker et d'autres dépendances, utilisez la commande suivante :

sudo apt upgrade -y

Cela mettra à jour tous les paquets installés, y compris Docker, si une nouvelle version est disponible dans les dépôts.

Vérifier la version de Docker

Une fois la mise à jour terminée, vous pouvez vérifier que Docker a bien été mis à jour en exécutant :

docker --version

Cela vous affichera la version actuelle de Docker installée.

Redémarrer le service Docker (si nécessaire)

Bien que Docker mette généralement à jour ses composants sans redémarrage, il est parfois nécessaire de redémarrer le service Docker pour que les modifications prennent effet correctement :

sudo systemctl restart docker

Vérifier le fonctionnement de Docker

Pour vous assurer que Docker fonctionne correctement après la mise à jour, vous pouvez exécuter un conteneur de test :

sudo docker run hello-world

Si Docker fonctionne correctement, le message "Hello from Docker!" s'affichera.

Nettoyage (Facultatif)

Enfin, pour garder votre système propre, vous pouvez supprimer les anciennes versions de paquets qui ne sont plus nécessaires en exécutant :

sudo apt autoremove

Cela supprimera les dépendances inutiles et les anciens paquets qui ne sont plus utilisés.

Debian

Debian est un système d’exploitation libre et gratuit, principalement basé sur Linux. Créé en 1993, il est connu pour sa stabilité, sa sécurité et son large choix de logiciels. Debian supporte de nombreuses architectures matérielles et sert souvent de base à d’autres distributions comme Ubuntu.

Debian

Commandes communes

Utiliser la commande ss

tag : <voir port>

La commande ss est un outil moderne et rapide pour afficher les connexions réseau. Vous pouvez l'utiliser pour lister les ports ouverts.

Pour afficher tous les ports ouverts et les services qui les utilisent :

sudo ss -tuln

Exemple de sortie :

Netid  State      Recv-Q Send-Q Local Address:Port   Peer Address:Port
tcp    LISTEN     0      128          *:22              *:*     
tcp    LISTEN     0      128       127.0.0.1:631        *:*     
udp    UNCONN     0      0        0.0.0.0:123           *:*

Cela vous donne une vue d'ensemble des ports ouverts et des adresses locales auxquelles ils sont liés.

Exemple pour un port spécifique (par exemple, le port 8080) :

sudo ss -tuln | grep ':8080'

Cette commande affiche les connexions TCP et UDP en écoute et filtre celles qui utilisent le port 8080.

Si vous souhaitez également afficher le PID, ajoutez l'option -p :

sudo ss -tulnp | grep ':8080'


Utiliser la commande ip -c a

tag : <voir ip, voir adresse ip>

ip -c a (ou ip -c addr) affiche toutes les interfaces réseau et leurs informations, avec une sortie colorée pour améliorer la lisibilité.

ip -c a

Exemple de sortie de ip -c a :

Voici un exemple de ce à quoi pourrait ressembler la sortie d'une commande ip -c a :

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    inet 192.168.1.10/24 brd 192.168.1.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::f816:3eff:fe2a:0bfa/64 scope link
       valid_lft forever preferred_lft forever

Avec l'option -c, ces informations sont colorées pour les rendre plus faciles à analyser visuellement.

En résumé :

La commande ip -c a est donc un moyen simple et rapide de visualiser l'état des interfaces réseau de votre système avec une sortie colorée pour une lecture plus facile.