Vai al contenuto

Risoluzione problemi

Questa sezione raccoglie i problemi più comuni e le relative soluzioni. Se non trovi risposta qui, puoi chiedere aiuto nei canali della comunità.

Problemi di installazione

"npm" non è riconosciuto come comando

Causa: Node.js non è installato o il terminale non è stato riavviato dopo l'installazione.

Soluzione: 1. Verifica che Node.js sia installato: cerca "Node.js" nel menu Start 2. Chiudi e riapri il Prompt dei comandi 3. Se il problema persiste, reinstalla Node.js

"git" non è riconosciuto come comando

Causa: Git non è installato o non è nel PATH di sistema.

Soluzione: 1. Reinstalla Git da git-scm.com 2. Durante l'installazione, assicurati che l'opzione "Git from the command line" sia selezionata 3. Riavvia il computer

Errore durante npm install

Causa: problemi di rete o permessi.

Soluzione: 1. Prova a eseguire il Prompt dei comandi come Amministratore 2. Se sei dietro un proxy aziendale, configura npm:

npm config set proxy http://proxy.azienda.it:8080
3. Prova a cancellare la cache e riprovare:
npm cache clean --force
npm install

Problemi di avvio

L'applicazione non si avvia

Causa possibile 1: Ollama non è in esecuzione.

Verifica: cerca l'icona di Ollama nell'area di notifica (vicino all'orologio). Se non c'è: 1. Cerca "Ollama" nel menu Start e avvialo 2. Attendi qualche secondo che si avvii completamente 3. Riprova ad avviare Ollama Easy GUI

Causa possibile 2: la porta 3003 è già in uso.

Soluzione: chiudi altre istanze dell'applicazione.

Pagina bianca nel browser

Causa: il server è avviato ma c'è un errore nel frontend.

Soluzione: 1. Apri gli strumenti sviluppatore del browser (F12) 2. Controlla la tab "Console" per messaggi di errore 3. Prova a svuotare la cache del browser e ricaricare

Problemi con i modelli

Nessun modello disponibile nella lista

Causa: Ollama non ha modelli installati o non è raggiungibile.

Soluzione: 1. Verifica che Ollama sia in esecuzione 2. Scarica almeno un modello:

ollama pull llama3.2
3. Ricarica l'interfaccia web

Il modello risponde molto lentamente

Causa: risorse hardware insufficienti o modello troppo grande.

Soluzioni: - Prova un modello più piccolo (es. passa da 8b a 3b) - Chiudi altre applicazioni per liberare RAM - Se hai una GPU, verifica che Ollama la stia usando - Aumenta OLLAMA_NUM_THREADS nel file .bat

Il modello non capisce l'italiano

Causa: alcuni modelli sono addestrati principalmente su testi inglesi.

Soluzioni: - Usa modelli multilingue come qwen2.5 o mistral - Aggiungi nel system prompt: "Rispondi sempre in italiano" - Considera che modelli piccoli (<3b) possono avere capacità limitate in lingue diverse dall'inglese

Problemi con gli allegati

Il PDF non viene letto correttamente

Causa: PDF con formattazione complessa o scansionato.

Soluzioni: - Se il PDF è una scansione, il testo non è estraibile: usa un OCR prima - Per PDF con molte tabelle, considera di estrarre il testo manualmente - Prova ad allegare una versione più semplice del documento

Le immagini non vengono analizzate

Causa: il modello non è multimodale.

Soluzione: usa un modello che supporta le immagini: - llava - bakllava - llama3.2-vision

Problemi con MCP

Gli strumenti MCP non funzionano

Checklist: 1. MCP è attivato? (interruttore nella sidebar) 2. Lo strumento specifico è attivato nel pannello MCP? 3. Il modello supporta function calling? (usa llama3.1, qwen2.5, mistral) 4. Il file mcp-config.json esiste ed è configurato correttamente?

Errore "strumento non trovato"

Causa: il server MCP non si è avviato correttamente.

Soluzione: 1. Verifica che Node.js sia installato (i server MCP lo richiedono) 2. Controlla i log per errori specifici 3. Prova a riavviare l'applicazione

Consultare i log

L'applicazione tiene traccia degli errori nei file di log. Per visualizzarli:

  1. Clicca il pulsante Log nel footer dell'interfaccia
  2. Seleziona la categoria da visualizzare:
  3. App: errori generali dell'applicazione
  4. Chat: problemi durante le conversazioni
  5. MCP: errori degli strumenti esterni
  6. Models: problemi con download o caricamento modelli

Visualizzatore dei log

Puoi cercare testo specifico e filtrare per data.

Ottenere supporto

Se il problema persiste:

Quando chiedi aiuto, includi: - Descrizione del problema - Sistema operativo e versione - Messaggi di errore (dai log o dalla console) - Passaggi per riprodurre il problema