Vai al contenuto

Note per macOS e Linux

Questa appendice raccoglie le differenze principali per chi vuole usare Ollama Easy GUI su sistemi diversi da Windows.

Piattaforme non testate

L'applicazione è stata sviluppata e testata solo su Windows. Su macOS e Linux dovrebbe funzionare, ma potrebbero esserci problemi non documentati. Feedback e segnalazioni sono benvenuti sul repository GitHub.

Installazione dei prerequisiti

Ollama

Su macOS e Linux, Ollama si installa da terminale:

curl -fsSL https://ollama.com/install.sh | sh

Su macOS è disponibile anche un'applicazione scaricabile dal sito ufficiale.

Node.js

Su macOS puoi usare Homebrew:

brew install node

Su Linux (Ubuntu/Debian):

sudo apt update
sudo apt install nodejs npm

Git

Su macOS:

brew install git

Su Linux (Ubuntu/Debian):

sudo apt install git

Differenze operative

File .bat

Il file start-ollama-easy-gui.bat è specifico per Windows e non funziona su altri sistemi. Su macOS e Linux avvia l'applicazione con:

cd percorso/ollama-easy-gui
npm start

Se vuoi configurare le variabili d'ambiente per la GPU (come fa il file .bat su Windows), esportale prima di avviare:

export OLLAMA_GPU_LAYERS=18
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_NUM_THREADS=8
npm start

Percorsi delle cartelle

Nel manuale si fa riferimento a percorsi Windows come %USERPROFILE%\Documents. Gli equivalenti sono:

Windows macOS/Linux
%USERPROFILE%\Documents ~/Documents
app\data\conversations app/data/conversations

Prompt dei comandi

Dove il manuale dice "Prompt dei comandi", su macOS usa Terminale e su Linux usa il terminale della tua distribuzione.

Supporto GPU

Su Linux, il supporto GPU NVIDIA richiede l'installazione dei driver CUDA. Su macOS con chip Apple Silicon (M1, M2, M3), Ollama utilizza automaticamente la GPU integrata.