Introduction
Ollama permet d’exécuter des modèles de langage puissants localement sur votre ordinateur, garantissant ainsi une confidentialité totale de vos données sans dépendre d’une connexion internet.
Dans cet article, nous allons voir comment installer Ollama sur une machine Debian disposant de 12 Go de RAM. Ollama permet de télécharger et d’exécuter facilement des modèles de langage (LLM) comme Llama, Mistral ou Gemma, directement en local.
Mise à jour du système
Avant toute installation, il est conseillé de mettre à jour le système :
ob@debian:~$ sudo -s
root@debian:/home/bob#
root@debian:/home/bob# apt update && sudo apt upgrade -y
Atteint : 1 http://security.debian.org/debian-security trixie-security InRelease
Atteint : 2 http://deb.debian.org/debian trixie InRelease
Un redémarrage peut être nécessaire si le noyau a été mis à jour.
Installation d’Ollama
Ollama fournit un script d’installation officiel, ce qui simplifie grandement la procédure.
Téléchargement et installation
Exécutez la commande suivante :
root@debian:/home/bob# curl -fsSL https://ollama.com/install.sh | sh
+>>> Installing ollama to /usr/local
>>> Downloading ollama-linux-amd64.tgz
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink '/etc/systemd/system/default.target.wants/ollama.service' → '/etc/systemd/system/ollama.service'.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
root@debian:/home/bob#
Ce script va :
- Télécharger le binaire d’Ollama
- L’installer dans
/usr/local/bin - Créer un service
systemd
Vérification du service Ollama
Une fois l’installation terminée, vérifiez que le service est actif :
root@debian:/home/bob# systemctl status ollama
● ollama.service - Ollama Service
Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled)
Active: active (running) since Mon 2026-01-12 18:15:28 CET; 59s ago
Le service doit être active (running).
Vérification de l’installation
Pour vérifier qu’Ollama est correctement installé, exécutez :
root@debian:/home/bob# ollama --version
ollama version is 0.13.5
La version installée doit s’afficher sans erreur.
root@debian:/home/bob# ollama pull llama3.2
pulling manifest
pulling dde5aa3fc5ff: 100% ▕███████████████████████████████████▏ 2.0 GB
pulling 966de95ca8a6: 100% ▕███████████████████████████████████▏ 1.4 KB
pulling fcc5a6bec9da: 100% ▕███████████████████████████████████▏ 7.7 KB
pulling a70ff7e570d9: 100% ▕███████████████████████████████████▏ 6.0 KB
pulling 56bb8bd477a5: 100% ▕███████████████████████████████████▏ 96 B
pulling 34bb5ab01051: 100% ▕███████████████████████████████████▏ 561 B
verifying sha256 digest
writing manifest
success
root@debian:/home/bob# ollama pull mistral
pulling manifest
pulling f5074b1221da: 100% ▕███████████████████████████████████▏ 4.4 GB
pulling 43070e2d4e53: 100% ▕███████████████████████████████████▏ 11 KB
pulling 1ff5b64b61b9: 100% ▕███████████████████████████████████▏ 799 B
pulling ed11eda7790d: 100% ▕███████████████████████████████████▏ 30 B
pulling 1064e17101bd: 100% ▕███████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
Le téléchargement peut prendre quelques minutes selon votre connexion internet.
Une fois terminé, le modèle est stocké localement sur la machine.
Supprimer un modèle
root@debian:/home/bob# ollama list
NAME ID SIZE MODIFIED
mistral:latest 6577803aa9a0 4.4 GB 34 minutes ago
llama3.2:latest a80c4f17acd5 2.0 GB 50 minutes ago
root@debian:/home/bob# ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
root@debian:/home/bob# ollama rm mistral
deleted 'mistral'
root@debian:/home/bob# ollama list
NAME ID SIZE MODIFIED
llama3.2:latest a80c4f17acd5 2.0 GB 50 minutes ago
Exécuter un modèle en local
Pour lancer une session interactive avec le modèle :
root@debian:/home/bob# ollama run mistral
>>> Donne moi une recette de pizza
Voici la recette d'une pizza maison facile et délicieuse.
Ingrédients :
* 1 pâte à pizza préparée ou chez soi
* Sauce tomate
* Mozzarella
* Olives noires
Vous pouvez alors poser vos questions directement dans le terminal.
Pour quitter la session :
Use Ctrl + d or /bye to exit.
Où sont stockés les modèles ?
Par défaut, Ollama stocke les modèles dans :
oot@debian:/home/bob# find / -name .ollama
/usr/share/ollama/.ollama
Afficher les informations sur un modèle
root@debian:/home/bob# ollama show llama3.2
Model
architecture llama
parameters 3.2B
context length 131072
embedding length 3072
quantization Q4_K_M
Lister les modèles installés sur l’ordinateur
root@debian:/home/bob# ollama list
NAME ID SIZE MODIFIED
mistral:latest 6577803aa9a0 4.4 GB About a minute ago
llama3.2:latest a80c4f17acd5 2.0 GB 17 minutes ago
Lister les modèles démarés
root@debian:/home/bob# ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
mistral:latest 6577803aa9a0 4.8 GB 100% CPU 4096 3 minutes from now
Arrêter un modèle
oot@debian:/home/bob# ollama stop mistral
root@debian:/home/bob# ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
Lancer une requête en CLI
root@debian:/home/bob# ollama run llama3.2 "Donne moi la recette d'une pizza"
Bien sûr ! Voici une recette de base pour une délicieuse pizza :
**Ingrédients :**
Pour la pâte :
* 500g de farine de blé
* 10g de sel
* 15g de sucre
Démarrer ollama si il n’est pas démarré par systemd:
./ollama serve
On vérifie qu’ollama écoute sur le port par défaut:
oot@debian:/home/bob# ss -antu | grep 11434
tcp LISTEN 0 4096 127.0.0.1:11434 0.0.0.0:*
Puis démarrer un modèle
./ollama run llama3.2
Laisser un commentaire