Note per macOS e Linux¶
Questa appendice raccoglie le differenze principali per chi vuole usare Ollama Easy GUI su sistemi diversi da Windows.
Piattaforme non testate
L'applicazione è stata sviluppata e testata solo su Windows. Su macOS e Linux dovrebbe funzionare, ma potrebbero esserci problemi non documentati. Feedback e segnalazioni sono benvenuti sul repository GitHub.
Installazione dei prerequisiti¶
Ollama¶
Su macOS e Linux, Ollama si installa da terminale:
curl -fsSL https://ollama.com/install.sh | sh
Su macOS è disponibile anche un'applicazione scaricabile dal sito ufficiale.
Node.js¶
Su macOS puoi usare Homebrew:
brew install node
Su Linux (Ubuntu/Debian):
sudo apt update
sudo apt install nodejs npm
Git¶
Su macOS:
brew install git
Su Linux (Ubuntu/Debian):
sudo apt install git
Differenze operative¶
File .bat¶
Il file start-ollama-easy-gui.bat è specifico per Windows e non funziona su altri sistemi. Su macOS e Linux avvia l'applicazione con:
cd percorso/ollama-easy-gui
npm start
Se vuoi configurare le variabili d'ambiente per la GPU (come fa il file .bat su Windows), esportale prima di avviare:
export OLLAMA_GPU_LAYERS=18
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_NUM_THREADS=8
npm start
Percorsi delle cartelle¶
Nel manuale si fa riferimento a percorsi Windows come %USERPROFILE%\Documents. Gli equivalenti sono:
| Windows | macOS/Linux |
|---|---|
%USERPROFILE%\Documents |
~/Documents |
app\data\conversations |
app/data/conversations |
Prompt dei comandi¶
Dove il manuale dice "Prompt dei comandi", su macOS usa Terminale e su Linux usa il terminale della tua distribuzione.
Supporto GPU¶
Su Linux, il supporto GPU NVIDIA richiede l'installazione dei driver CUDA. Su macOS con chip Apple Silicon (M1, M2, M3), Ollama utilizza automaticamente la GPU integrata.