Utiliser une Web UI avec Ollama sur Debian

Après avoir vu comment installer Ollama et utiliser des modèles comme Mistral et LLaMA 3.2 en ligne de commande, une question revient souvent :

Peut-on utiliser Ollama avec une interface web, plus conviviale qu’un terminal ?

La réponse est oui. Dans cet article, nous allons voir comment utiliser une Web UI pour Ollama, afin d’interagir avec des modèles d’IA locale directement depuis un navigateur web.

Pourquoi utiliser une Web UI avec Ollama ?

L’interface en ligne de commande est parfaite pour :

  • tester rapidement un modèle
  • automatiser des tâches
  • comprendre le fonctionnement d’Ollama

Mais elle montre vite ses limites pour un usage plus confortable.

Une Web UI permet notamment de :

  • discuter avec les modèles via une interface type ChatGPT
  • conserver l’historique des conversations
  • changer de modèle facilement
  • utiliser Ollama sans connaître les commandes CLI

C’est particulièrement intéressant pour :

  • les tests fonctionnels
  • la démonstration de l’IA locale
  • les utilisateurs non techniques

Quelle Web UI pour Ollama ?

Il existe plusieurs projets permettant d’ajouter une interface web à Ollama. L’un des plus utilisés et des plus complets est :

Open WebUI (anciennement Ollama WebUI)

Ses avantages :

  • interface moderne et intuitive
  • compatible avec Ollama sans configuration complexe
  • support de plusieurs modèles
  • déploiement simple via Docker

C’est cette solution qui sera utilisée dans la suite.

Prérequis

Avant d’aller plus loin, il est nécessaire d’avoir :

  • une machine sous Debian
  • Ollama déjà installé et fonctionnel
  • au moins 8 à 12 Go de RAM (selon les modèles utilisés)
  • un accès administrateur

Dans mon cas, l’environnement est le suivant :

  • Debian installé dans une machine virtuelle KVM
  • 12 Go de mémoire
  • exécution des modèles uniquement sur CPU

Principe de fonctionnement

Le fonctionnement est simple :

  • Ollama continue de gérer les modèles et leur exécution
  • la Web UI se connecte à l’API locale d’Ollama
  • l’utilisateur interagit avec les modèles via son navigateur

Aucune donnée n’est envoyée vers l’extérieur : 👉 tout reste en local

C’est un point important en termes de confidentialité et de sécurité.

Déploiement de la Web UI

La méthode la plus simple pour déployer Open WebUI est d’utiliser Docker.

Docker permet :

  • une installation rapide
  • une isolation propre du service
  • une suppression facile si besoin

Connexion à Ollama

Une fois la Web UI lancée :

  • elle détecte automatiquement Ollama
  • les modèles déjà téléchargés (Mistral, LLaMA 3.2, etc.) sont disponibles
  • il est possible de lancer des conversations immédiatement

Performances et limites

Sans GPU, il faut garder à l’esprit que :

  • les temps de réponse sont plus longs
  • les modèles volumineux consomment beaucoup de mémoire

Installation d’Open WebUI

L’installation d’Open WebUI se fait simplement à l’aide de Docker. Cette méthode évite toute installation complexe et permet de déployer rapidement l’interface.

Prérequis: validation de l’installation de docker et d’ollama

ob@debian:~$ docker --version
Docker version 29.1.4, build 0e6fee6
bob@debian:~$ systemctl status docker
● docker.service - Docker Application Container Engine
     Loaded: loaded (/usr/lib/systemd/system/docker.service; enabled; preset: e>
     Active: active (running) since Sat 2026-01-24 16:45:15 CET; 9min ago
 Invocation: 057dd9278bae4635a709ec82ab131da3
TriggeredBy: ● docker.socket
       Docs: https://docs.docker.com
   Main PID: 865 (dockerd)
      Tasks: 12
     Memory: 116.7M (peak: 118.6M)
        CPU: 1.432s
     CGroup: /system.slice/docker.service
             └─865 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/conta>

Warning: some journal files were not opened due to insufficient permissions.
bob@debian:~$ 
bob@debian:~$ 
bob@debian:~$ ollama --version
ollama version is 0.14.0
bob@debian:~$ 
bob@debian:~$ ss -antu | grep 11434
tcp   LISTEN  0   4096  127.0.0.1:11434   0.0.0.0:*    

bob@debian:~$ 

Lancement du conteneur

Une fois Docker installé sur Debian, Open WebUI peut être lancé avec la commande suivante :

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

L’interface est ensuite accessible depuis un navigateur à l’adresse du serveur openwebUI

Lors de la première connexion, un compte administrateur est créé.

Commandes de gestion du conteneur

Quelques commandes Docker utiles pour gérer Open WebUI :

  • Démarrer le service :
bob@debian:~$ docker start open-webui
open-webui
  • Arrêter le service :
bob@debian:~$ docker stop open-webui
open-webui
  • Redémarrer le service :
bob@debian:~$ docker restart open-webui
open-webui
bob@debian:~$
  • Afficher les logs :
bob@debian:~$ docker logs open-webui

Ces commandes permettent de gérer facilement le cycle de vie de la Web UI.

Téléchargement d’un modèle

Les modèles sont toujours gérés par Ollama.

Il est maintenant possible de télécharger un modèle depuis l’interface web (bouton « + »)

Premiers tests d’utilisation

Depuis l’interface web :

  • sélectionner le modèle souhaité (Mistral ou LLaMA 3.2)
  • saisir une requête simple, par exemple :

Donne un exemple de configuration pare-feu simple sous Linux

Les réponses sont générées localement par Ollama et affichées directement dans le navigateur.

Il est possible de :

  • changer de modèle à la volée
  • conserver l’historique des conversations
  • comparer les réponses entre plusieurs modèles

Conclusion

Ajouter une Web UI à Ollama permet de rendre l’IA locale :

  • plus accessible
  • plus conviviale
  • plus facile à démontrer

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *