Advanced Search
Search Results
94 total results found
Mise à jour
Pour mettre à jour Ollama, vous pouvez exécuter à nouveau la commande suivante : curl -fsSL https://ollama.com/install.sh | sh Cela réinstalle le script d'installation d'Ollama, et peut écraser des fichiers existants ou entraîner la perte de configurations p...
Grafana
Grafana est une plateforme de visualisation de données open source lancée en 2013. Elle permet aux utilisateurs de : Créer des tableaux de bord dynamiques et modulables. Visualiser des métriques, des journaux et des traces provenant de diverses sources de ...
Désinstallation
Supprimez le service Ollama : sudo systemctl stop ollama sudo systemctl disable ollama sudo rm /etc/systemd/system/ollama.service Supprimez le binaire ollama de votre répertoire bin (cela peut être /usr/local/bin, /usr/bin, ou /bin). sudo rm $(which ollam...
Affine
AFFiNE est une plateforme de travail tout-en-un qui fusionne les documents, les tableaux blancs et les bases de données.
Modèle personnalisé
Importation depuis GGUF Ollama prend en charge l'importation de modèles au format GGUF via un fichier Modelfile. Créer un fichier Modelfile : Créez un fichier nommé Modelfile, qui doit contenir une instruction FROM avec le chemin local du modèle que vous s...
Détecter l'IA
La détection du travail généré par l'IA consiste à identifier si un texte ou un contenu a été créé par une intelligence artificielle plutôt que par un humain.
Prompt personnalisé
Les modèles de la bibliothèque Ollama peuvent être personnalisés avec un prompt. Par exemple, pour personnaliser le modèle llama3.2 : Télécharger le modèle : Tout d'abord, vous devez télécharger le modèle avec la commande suivante : ollama pull llama3.2 Ce...
Créer un modèle
La commande ollama create est utilisée pour créer un modèle à partir d'un fichier Modelfile. ollama create mymodel -f ./Modelfile Cette commande crée un modèle nommé mymodel en utilisant les instructions définies dans le fichier Modelfile. Télécharger un mo...
Installation avec pip
Source : GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...) ATTENTION ! L'installation avec pip rend la mise à jour du logiciel complexe. Faite cette installation pour des tests, ou du développement spécifique et no...
Installation avec docker
Avant de faire l'installation de Open-WebUI, merci de vous référer à l'installation de docker. Installation avec la configuration par défaut Si Ollama est sur votre ordinateur, utilisez cette commande : docker run -d -p 3000:8080 --add-host=host.docker.inte...
Installation (debian)
Mettre à jour votre système Avant d'installer Docker, il est recommandé de mettre à jour votre système Debian pour s'assurer que tous les paquets sont à jour. sudo apt update && sudo apt upgrade -y Installer les dépendances nécessaires Docker nécessite que...
Mise à jour (debian)
Mettre à jour la liste des dépôts La première étape consiste à mettre à jour la liste des dépôts pour s'assurer que vous avez les dernières informations sur les paquets disponibles. sudo apt update Vérifier les versions disponibles Avant de mettre à jour D...
Nouvelle page
Grand titrepetite section :textecodeligne de code
Mise à jour
Mise à jour vers Open WebUI tout en conservant vos donnéesSi vous souhaitez mettre à jour vers la nouvelle image tout en migrant tous vos paramètres précédents tels que les conversations, les invites, les documents, etc.Vous pouvez effectuer les étapes suivant...
Commandes communes
Utiliser la commande sstag : <voir port>La commande ss est un outil moderne et rapide pour afficher les connexions réseau. Vous pouvez l'utiliser pour lister les ports ouverts.Pour afficher tous les ports ouverts et les services qui les utilisent :sudo ss -tul...
Embedding model (représentations vectorielles)
Qu'est-ce qu'un embedding ?Un embedding est une représentation vectorielle d'un mot, d'une phrase ou même d'un texte complet dans un espace mathématique de haute dimension. L'objectif est de transformer des éléments de texte en vecteurs (des suites de nombres)...
Embedding model dans une société
L'utilisation d'un modèle d'embedding comme "nomic-embed-text" dans une société qui a une grande quantité de documentation (manuels, guides, FAQ, rapports, etc.) peut être extrêmement utile pour répondre efficacement à des demandes internes ou externes. Voici ...
Supprimer un modèle
Supprimer un modèle dans la list :ollama rm llama3.2
Cette application a été bloquée pour votre protection
1. Allez dans le registre :Ordinateur\HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System2. Mettre :EnableLUA 03. Redémarrer
Systémique
Le terme "systémique", dans le contexte du numérique responsable, fait référence à une approche globale qui considère les interactions, les interdépendances et les impacts à différents niveaux du système numérique. Cela implique de ne pas se limiter à une visi...