Installer Ollama sur Debian

Introduction

Ollama permet d’exécuter des modèles de langage puissants localement sur votre ordinateur, garantissant ainsi une confidentialité totale de vos données sans dépendre d’une connexion internet.

Dans cet article, nous allons voir comment installer Ollama sur une machine Debian disposant de 12 Go de RAM. Ollama permet de télécharger et d’exécuter facilement des modèles de langage (LLM) comme Llama, Mistral ou Gemma, directement en local.

Mise à jour du système

Avant toute installation, il est conseillé de mettre à jour le système :

ob@debian:~$ sudo -s
root@debian:/home/bob# 
root@debian:/home/bob# apt update && sudo apt upgrade -y
Atteint : 1 http://security.debian.org/debian-security trixie-security InRelease
Atteint : 2 http://deb.debian.org/debian trixie InRelease                  

Un redémarrage peut être nécessaire si le noyau a été mis à jour.

Installation d’Ollama

Ollama fournit un script d’installation officiel, ce qui simplifie grandement la procédure.

Téléchargement et installation

Exécutez la commande suivante :

root@debian:/home/bob# curl -fsSL https://ollama.com/install.sh | sh
+>>> Installing ollama to /usr/local
>>> Downloading ollama-linux-amd64.tgz
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink '/etc/systemd/system/default.target.wants/ollama.service' → '/etc/systemd/system/ollama.service'.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
root@debian:/home/bob# 

Ce script va :

  • Télécharger le binaire d’Ollama
  • L’installer dans /usr/local/bin
  • Créer un service systemd

Vérification du service Ollama

Une fois l’installation terminée, vérifiez que le service est actif :

root@debian:/home/bob# systemctl status ollama
● ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled)
     Active: active (running) since Mon 2026-01-12 18:15:28 CET; 59s ago

Le service doit être active (running).

Vérification de l’installation

Pour vérifier qu’Ollama est correctement installé, exécutez :

root@debian:/home/bob# ollama --version
ollama version is 0.13.5

La version installée doit s’afficher sans erreur.

root@debian:/home/bob# ollama pull llama3.2
pulling manifest 
pulling dde5aa3fc5ff: 100% ▕███████████████████████████████████▏ 2.0 GB                         
pulling 966de95ca8a6: 100% ▕███████████████████████████████████▏ 1.4 KB                         
pulling fcc5a6bec9da: 100% ▕███████████████████████████████████▏ 7.7 KB                         
pulling a70ff7e570d9: 100% ▕███████████████████████████████████▏ 6.0 KB                         
pulling 56bb8bd477a5: 100% ▕███████████████████████████████████▏   96 B                         
pulling 34bb5ab01051: 100% ▕███████████████████████████████████▏  561 B                         
verifying sha256 digest 
writing manifest 
success 
root@debian:/home/bob# ollama pull mistral
pulling manifest 
pulling f5074b1221da: 100% ▕███████████████████████████████████▏ 4.4 GB                         
pulling 43070e2d4e53: 100% ▕███████████████████████████████████▏  11 KB                         
pulling 1ff5b64b61b9: 100% ▕███████████████████████████████████▏  799 B                         
pulling ed11eda7790d: 100% ▕███████████████████████████████████▏   30 B                         
pulling 1064e17101bd: 100% ▕███████████████████████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 

Le téléchargement peut prendre quelques minutes selon votre connexion internet.

Une fois terminé, le modèle est stocké localement sur la machine.

Supprimer un modèle

root@debian:/home/bob# ollama list
NAME               ID              SIZE      MODIFIED       
mistral:latest     6577803aa9a0    4.4 GB    34 minutes ago    
llama3.2:latest    a80c4f17acd5    2.0 GB    50 minutes ago    
root@debian:/home/bob# ollama ps
NAME    ID    SIZE    PROCESSOR    CONTEXT    UNTIL 
root@debian:/home/bob# ollama rm mistral
deleted 'mistral'
root@debian:/home/bob# ollama list
NAME               ID              SIZE      MODIFIED       
llama3.2:latest    a80c4f17acd5    2.0 GB    50 minutes ago   

Exécuter un modèle en local

Pour lancer une session interactive avec le modèle :

root@debian:/home/bob# ollama run mistral
>>> Donne moi une recette de pizza
 Voici la recette d'une pizza maison facile et délicieuse.

Ingrédients :

* 1 pâte à pizza préparée ou chez soi
* Sauce tomate
* Mozzarella
* Olives noires

Vous pouvez alors poser vos questions directement dans le terminal.

Pour quitter la session :

Use Ctrl + d or /bye to exit.

Où sont stockés les modèles ?

Par défaut, Ollama stocke les modèles dans :

oot@debian:/home/bob# find / -name .ollama
/usr/share/ollama/.ollama

Afficher les informations sur un modèle

root@debian:/home/bob# ollama show llama3.2
  Model
    architecture        llama     
    parameters          3.2B      
    context length      131072    
    embedding length    3072      
    quantization        Q4_K_M   

Lister les modèles installés sur l’ordinateur

root@debian:/home/bob# ollama list
NAME               ID              SIZE      MODIFIED           
mistral:latest     6577803aa9a0    4.4 GB    About a minute ago    
llama3.2:latest    a80c4f17acd5    2.0 GB    17 minutes ago        

Lister les modèles démarés

root@debian:/home/bob# ollama ps
NAME              ID              SIZE      PROCESSOR    CONTEXT    UNTIL              
mistral:latest    6577803aa9a0    4.8 GB    100% CPU     4096       3 minutes from now  

Arrêter un modèle

oot@debian:/home/bob# ollama stop mistral
root@debian:/home/bob# ollama ps
NAME    ID    SIZE    PROCESSOR    CONTEXT    UNTIL 

Lancer une requête en CLI

root@debian:/home/bob# ollama run llama3.2 "Donne moi la recette d'une pizza"
Bien sûr ! Voici une recette de base pour une délicieuse pizza :

**Ingrédients :**

Pour la pâte :

* 500g de farine de blé
* 10g de sel
* 15g de sucre

Démarrer ollama si il n’est pas démarré par systemd:

./ollama serve

On vérifie qu’ollama écoute sur le port par défaut:

oot@debian:/home/bob# ss -antu | grep 11434
tcp   LISTEN    0      4096       127.0.0.1:11434       0.0.0.0:*    

Puis démarrer un modèle

./ollama run llama3.2

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *