Vai al contenuto

Gestire i modelli

I modelli AI sono il cuore dell'applicazione. In questo capitolo vedremo come scaricare nuovi modelli, capire le differenze tra loro e scegliere quello più adatto alle tue esigenze.

Modelli locali vs Hub

L'interfaccia di gestione modelli ha due schede:

  • Local Models: modelli già scaricati sul tuo computer, pronti all'uso
  • Hub Search: catalogo online dei modelli disponibili per il download

Per accedere alla gestione modelli, clicca il pulsante Manage Models nella sidebar destra.

Gestione modelli locali

I modelli installati

Nella scheda dei modelli locali vedi tutti i modelli disponibili sul tuo computer. Per ogni modello sono mostrati:

  • Nome e versione: per esempio "llama3.2:3b"
  • Dimensione: quanto spazio occupa su disco
  • Data: quando è stato scaricato
  • Categoria: Chat, Code, Reasoning, Multimodal

Puoi ordinare l'elenco per nome, dimensione, data o categoria usando i pulsanti in alto.

Scaricare nuovi modelli

Passa alla scheda Hub Search per cercare modelli nel catalogo Ollama:

Ricerca modelli nell'Hub

Puoi filtrare per categoria:

  • Chat: modelli generici per conversazione
  • Code: specializzati nella programmazione
  • Reasoning: ottimizzati per ragionamento logico
  • Multimodal: capaci di analizzare anche immagini

Trova un modello interessante e clicca su Download. Vedrai il progresso del download in tempo reale:

Download di un modello in corso

Prima di scaricare

I modelli possono essere molto pesanti: un modello da 70 miliardi di parametri richiede oltre 40 GB di spazio su disco.

Inoltre modelli grandi richiedono più RAM e una GPU con sufficiente memoria per funzionare a velocità accettabile. Consulta la sezione "Quale modello scegliere" per capire cosa può gestire il tuo hardware.

Capire i nomi dei modelli

I nomi dei modelli seguono uno schema preciso:

nome:variante

Per esempio: llama3.2:3b, qwen2.5:7b-instruct, codellama:13b

Il numero dopo i due punti indica tipicamente la dimensione: - 1b-3b: modelli leggeri, veloci, adatti a computer meno potenti - 7b-8b: buon compromesso tra qualità e velocità - 13b-14b: risposte più accurate, servono 16 GB di RAM - 70b e oltre: massima qualità, richiedono hardware potente

Quale modello scegliere

La scelta dipende dal tuo hardware e da cosa vuoi fare:

Per computer con 8 GB di RAM

Modello Uso consigliato
llama3.2:3b Conversazione generale, veloce
qwen2.5:3b Buono per testi in più lingue
phi3:3.8b Ragionamento e logica

Per computer con 16 GB di RAM

Modello Uso consigliato
llama3.1:8b Uso generale, ottime risposte
qwen2.5:7b Multilingue, anche italiano
mistral:7b Veloce e affidabile
codellama:7b Programmazione

Per computer con GPU (8+ GB VRAM)

Modello Uso consigliato
llama3.3:70b Massima qualità
qwen2.5-coder:32b Programmazione avanzata
command-r:35b Ricerca e analisi documenti

Inizia in piccolo

Se non sai quale scegliere, inizia con llama3.2:3b per testare che tutto funzioni, poi passa a modelli più grandi se il tuo hardware lo permette.

Rimuovere un modello

Per liberare spazio su disco, puoi rimuovere i modelli che non usi più. Nella scheda dei modelli locali, clicca l'icona del cestino accanto al modello da eliminare.

Riscaricare è sempre possibile

Rimuovere un modello non è irreversibile, potrai sempre riscaricarlo dall'Hub se ne dovessi avere bisogno.

Modelli e MCP

Non tutti i modelli supportano MCP (Model Context Protocol), la funzionalità che permette all'AI di usare strumenti esterni. Se prevedi di usare MCP, scegli modelli che supportano il "function calling":

  • llama3.1, llama3.2, llama3.3
  • qwen2.5 (tutte le varianti)
  • mistral, mistral-nemo
  • command-r, command-r-plus

I modelli più vecchi come llama2 o codellama non supportano MCP. Approfondiremo questo argomento nel capitolo dedicato.