Risoluzione problemi¶
Questa sezione raccoglie i problemi più comuni e le relative soluzioni. Se non trovi risposta qui, puoi chiedere aiuto nei canali della comunità.
Problemi di installazione¶
"npm" non è riconosciuto come comando¶
Causa: Node.js non è installato o il terminale non è stato riavviato dopo l'installazione.
Soluzione: 1. Verifica che Node.js sia installato: cerca "Node.js" nel menu Start 2. Chiudi e riapri il Prompt dei comandi 3. Se il problema persiste, reinstalla Node.js
"git" non è riconosciuto come comando¶
Causa: Git non è installato o non è nel PATH di sistema.
Soluzione: 1. Reinstalla Git da git-scm.com 2. Durante l'installazione, assicurati che l'opzione "Git from the command line" sia selezionata 3. Riavvia il computer
Errore durante npm install¶
Causa: problemi di rete o permessi.
Soluzione: 1. Prova a eseguire il Prompt dei comandi come Amministratore 2. Se sei dietro un proxy aziendale, configura npm:
npm config set proxy http://proxy.azienda.it:8080
npm cache clean --force
npm install
Problemi di avvio¶
L'applicazione non si avvia¶
Causa possibile 1: Ollama non è in esecuzione.
Verifica: cerca l'icona di Ollama nell'area di notifica (vicino all'orologio). Se non c'è: 1. Cerca "Ollama" nel menu Start e avvialo 2. Attendi qualche secondo che si avvii completamente 3. Riprova ad avviare Ollama Easy GUI
Causa possibile 2: la porta 3003 è già in uso.
Soluzione: chiudi altre istanze dell'applicazione.
Pagina bianca nel browser¶
Causa: il server è avviato ma c'è un errore nel frontend.
Soluzione: 1. Apri gli strumenti sviluppatore del browser (F12) 2. Controlla la tab "Console" per messaggi di errore 3. Prova a svuotare la cache del browser e ricaricare
Problemi con i modelli¶
Nessun modello disponibile nella lista¶
Causa: Ollama non ha modelli installati o non è raggiungibile.
Soluzione: 1. Verifica che Ollama sia in esecuzione 2. Scarica almeno un modello:
ollama pull llama3.2
Il modello risponde molto lentamente¶
Causa: risorse hardware insufficienti o modello troppo grande.
Soluzioni:
- Prova un modello più piccolo (es. passa da 8b a 3b)
- Chiudi altre applicazioni per liberare RAM
- Se hai una GPU, verifica che Ollama la stia usando
- Aumenta OLLAMA_NUM_THREADS nel file .bat
Il modello non capisce l'italiano¶
Causa: alcuni modelli sono addestrati principalmente su testi inglesi.
Soluzioni:
- Usa modelli multilingue come qwen2.5 o mistral
- Aggiungi nel system prompt: "Rispondi sempre in italiano"
- Considera che modelli piccoli (<3b) possono avere capacità limitate in lingue diverse dall'inglese
Problemi con gli allegati¶
Il PDF non viene letto correttamente¶
Causa: PDF con formattazione complessa o scansionato.
Soluzioni: - Se il PDF è una scansione, il testo non è estraibile: usa un OCR prima - Per PDF con molte tabelle, considera di estrarre il testo manualmente - Prova ad allegare una versione più semplice del documento
Le immagini non vengono analizzate¶
Causa: il modello non è multimodale.
Soluzione: usa un modello che supporta le immagini:
- llava
- bakllava
- llama3.2-vision
Problemi con MCP¶
Gli strumenti MCP non funzionano¶
Checklist: 1. MCP è attivato? (interruttore nella sidebar) 2. Lo strumento specifico è attivato nel pannello MCP? 3. Il modello supporta function calling? (usa llama3.1, qwen2.5, mistral) 4. Il file mcp-config.json esiste ed è configurato correttamente?
Errore "strumento non trovato"¶
Causa: il server MCP non si è avviato correttamente.
Soluzione: 1. Verifica che Node.js sia installato (i server MCP lo richiedono) 2. Controlla i log per errori specifici 3. Prova a riavviare l'applicazione
Consultare i log¶
L'applicazione tiene traccia degli errori nei file di log. Per visualizzarli:
- Clicca il pulsante Log nel footer dell'interfaccia
- Seleziona la categoria da visualizzare:
- App: errori generali dell'applicazione
- Chat: problemi durante le conversazioni
- MCP: errori degli strumenti esterni
- Models: problemi con download o caricamento modelli
Puoi cercare testo specifico e filtrare per data.
Ottenere supporto¶
Se il problema persiste:
- GitHub Issues: github.com/paolodalprato/ollama-easy-gui/issues per segnalare bug o chiedere aiuto
- GitHub Discussions: per domande generali e discussioni
Quando chiedi aiuto, includi: - Descrizione del problema - Sistema operativo e versione - Messaggi di errore (dai log o dalla console) - Passaggi per riprodurre il problema
