Définissez la variable d'environnement pour Ollama
Ouvrir l'invite de commande en tant qu'administrateur et exécuter la commande suivante :
Cela configurera la variable d'environnement système OLLAMA_HOST pour qu'Ollama écoute sur toutes les interfaces réseau.
Pour modifier l'emplacement des modèles
Par défaut les modèles se trouvent C:\Users\[votre_nom_utilisateur]\.ollama\models.
Vous pouvez les déplacer ailleurs, d'abord arrêtez Ollama puis ensuite créer par exemple D:\Ollama\models
Tailscale
Tailscale crée un réseau privé virtuel entre tous vos appareils, vous permettant d'y accéder comme s'ils étaient sur le même réseau local, même lorsque vous êtes en déplacement.
sur Windows
- Téléchargez Tailscale depuis le site officiel : https://tailscale.com/download
- Installez et connectez-vous à votre compte Tailscale
- Notez l'adresse IP Tailscale attribuée à votre PC Windows (généralement quelque chose comme 100.x.y.z)
sur Smartphone
- Téléchargez l'application depuis le Play Store
- Connectez-vous avec le même compte que sur votre PC
Chatbox AI
Chatbox AI est une application desktop et smartphone qui permet d’utiliser une IA en cloud ou bien comme ici Ollama en local.
Configurez Windows :
- Ouvrez Chatbox AI
- Dans les paramètres, sélectionnez "OLLAMA" comme fournisseur de modèle
- Entrez l'URL :
http://localhost:11434
ouhttp://127.0.0.1:11434
Configurez votre smartphone :
- Ouvrez Chatbox AI
- Dans les paramètres, sélectionnez "OLLAMA" comme fournisseur de modèle
- Entrez l'URL en utilisant l'adresse IP Tailscale de votre PC Windows :
http://100.x.y.z:11434
(remplacez 100.x.y.z par votre adresse IP Tailscale réelle)