Gestire i modelli¶
I modelli AI sono il cuore dell'applicazione. In questo capitolo vedremo come scaricare nuovi modelli, capire le differenze tra loro e scegliere quello più adatto alle tue esigenze.
Modelli locali vs Hub¶
L'interfaccia di gestione modelli ha due schede:
- Local Models: modelli già scaricati sul tuo computer, pronti all'uso
- Hub Search: catalogo online dei modelli disponibili per il download
Per accedere alla gestione modelli, clicca il pulsante Manage Models nella sidebar destra.
I modelli installati¶
Nella scheda dei modelli locali vedi tutti i modelli disponibili sul tuo computer. Per ogni modello sono mostrati:
- Nome e versione: per esempio "llama3.2:3b"
- Dimensione: quanto spazio occupa su disco
- Data: quando è stato scaricato
- Categoria: Chat, Code, Reasoning, Multimodal
Puoi ordinare l'elenco per nome, dimensione, data o categoria usando i pulsanti in alto.
Scaricare nuovi modelli¶
Passa alla scheda Hub Search per cercare modelli nel catalogo Ollama:
Puoi filtrare per categoria:
- Chat: modelli generici per conversazione
- Code: specializzati nella programmazione
- Reasoning: ottimizzati per ragionamento logico
- Multimodal: capaci di analizzare anche immagini
Trova un modello interessante e clicca su Download. Vedrai il progresso del download in tempo reale:
Prima di scaricare
I modelli possono essere molto pesanti: un modello da 70 miliardi di parametri richiede oltre 40 GB di spazio su disco.
Inoltre modelli grandi richiedono più RAM e una GPU con sufficiente memoria per funzionare a velocità accettabile. Consulta la sezione "Quale modello scegliere" per capire cosa può gestire il tuo hardware.
Capire i nomi dei modelli¶
I nomi dei modelli seguono uno schema preciso:
nome:variante
Per esempio: llama3.2:3b, qwen2.5:7b-instruct, codellama:13b
Il numero dopo i due punti indica tipicamente la dimensione: - 1b-3b: modelli leggeri, veloci, adatti a computer meno potenti - 7b-8b: buon compromesso tra qualità e velocità - 13b-14b: risposte più accurate, servono 16 GB di RAM - 70b e oltre: massima qualità, richiedono hardware potente
Quale modello scegliere¶
La scelta dipende dal tuo hardware e da cosa vuoi fare:
Per computer con 8 GB di RAM¶
| Modello | Uso consigliato |
|---|---|
| llama3.2:3b | Conversazione generale, veloce |
| qwen2.5:3b | Buono per testi in più lingue |
| phi3:3.8b | Ragionamento e logica |
Per computer con 16 GB di RAM¶
| Modello | Uso consigliato |
|---|---|
| llama3.1:8b | Uso generale, ottime risposte |
| qwen2.5:7b | Multilingue, anche italiano |
| mistral:7b | Veloce e affidabile |
| codellama:7b | Programmazione |
Per computer con GPU (8+ GB VRAM)¶
| Modello | Uso consigliato |
|---|---|
| llama3.3:70b | Massima qualità |
| qwen2.5-coder:32b | Programmazione avanzata |
| command-r:35b | Ricerca e analisi documenti |
Inizia in piccolo
Se non sai quale scegliere, inizia con llama3.2:3b per testare che tutto funzioni, poi passa a modelli più grandi se il tuo hardware lo permette.
Rimuovere un modello¶
Per liberare spazio su disco, puoi rimuovere i modelli che non usi più. Nella scheda dei modelli locali, clicca l'icona del cestino accanto al modello da eliminare.
Riscaricare è sempre possibile
Rimuovere un modello non è irreversibile, potrai sempre riscaricarlo dall'Hub se ne dovessi avere bisogno.
Modelli e MCP¶
Non tutti i modelli supportano MCP (Model Context Protocol), la funzionalità che permette all'AI di usare strumenti esterni. Se prevedi di usare MCP, scegli modelli che supportano il "function calling":
- llama3.1, llama3.2, llama3.3
- qwen2.5 (tutte le varianti)
- mistral, mistral-nemo
- command-r, command-r-plus
I modelli più vecchi come llama2 o codellama non supportano MCP. Approfondiremo questo argomento nel capitolo dedicato.


