Come creare un LLM sul proprio PC: guida passo passo
Negli ultimi anni i Large Language Model (LLM) sono usciti dai soli data center per arrivare direttamente sui nostri computer di casa. Questo significa poter usare un’AI conversazionale potente, gratuita e privata, senza inviare dati a server esterni.digitalworlditalia+1
Cosa significa “avere un LLM sul proprio PC”
Un LLM in locale è un modello di linguaggio installato sul tuo computer, che risponde ai tuoi prompt senza passare da servizi cloud come ChatGPT o Gemini. In pratica trasformi il PC in una piccola “centralina” di intelligenza artificiale sempre a disposizione per scrivere testi, riassunti, codice o rispondere a domande.investglass+2
Requisiti: hardware e sistema operativo
Per iniziare non serve una workstation da migliaia di euro, ma alcune caratteristiche minime aiutano molto.androidblog+1
- CPU moderna (Intel/AMD degli ultimi anni o Apple Silicon).
- Almeno 16 GB di RAM consigliati per modelli da 7 miliardi di parametri quantizzati.digitalworlditalia
- Se possibile, una GPU con almeno 8 GB di VRAM (es. RTX 3060) per risposte più rapide, anche se molti modelli leggeri girano solo su CPU.androidblog+1
Gli strumenti che useremo (Ollama e LM Studio) funzionano su Windows, macOS e Linux, rendendo l’installazione accessibile anche a chi non è sviluppatore.html+1
Opzione 1: usare Ollama
Ollama è uno strumento open source che permette di scaricare ed eseguire modelli LLM in locale con comandi molto semplici.digitalworlditalia+1
Installazione di Ollama
- Vai sul sito ufficiale di Ollama e scarica il pacchetto per il tuo sistema operativo (Windows, macOS o Linux).devturtleblog+1
- Su Windows e macOS esegui il file di installazione con la procedura guidata classica.
- Su Linux puoi usare il comando da terminale:
curl -fsSL https://ollama.com/install.sh | sh.html+1
Per verificare che tutto sia installato correttamente, apri il terminale e digita ollama --help: se il comando viene riconosciuto, sei pronto a lanciare il tuo primo modello.devturtleblog
Scaricare e avviare un modello (es. Llama 3)
Una volta installato Ollama, puoi scaricare ed eseguire un modello con una singola riga di comando.digitalworlditalia+1
- Per esempio, per avviare Llama 3:
ollama run llama3 - Il primo avvio scaricherà i file del modello dalla libreria di Ollama, poi aprirà una sessione interattiva dove puoi iniziare a scrivere le tue domande.youtubedevturtleblog
Sono disponibili molti modelli open source (Llama, Mistral, Phi-3, Gemma) in diverse dimensioni; i tag “3B” o “7B” indicano il numero di parametri e quindi la complessità e il peso del modello.youtubeandroidblog
Opzione 2: usare LM Studio con interfaccia grafica
Se preferisci una soluzione con interfaccia grafica stile “ChatGPT”, LM Studio è una scelta molto intuitiva.claudiobattaglino+1
Installazione di LM Studio
- Visita il sito di LM Studio (lmstudio.ai) e scarica il programma per Windows, macOS o Linux.claudiobattaglino+1
- Avvia il file di installazione e completa la procedura guidata; il software rileva automaticamente se può usare la GPU per accelerare il modello.youtubeinvestglass
- Alla prima apertura vedrai una schermata con la barra laterale e la sezione per cercare nuovi modelli.claudiobattaglino
LM Studio è pensato per permettere anche a utenti non tecnici di sperimentare con i principali LLM open source in pochi click.digitaconnect
Scaricare e usare un modello con LM Studio
Per iniziare a chattare con un LLM locale bastano pochi passaggi.digitaconnect+1
- Clicca sulla sezione “Discover” o sull’icona della lente per aprire il catalogo dei modelli disponibili.claudiobattaglino
- Per ogni modello vedrai informazioni come nome, architettura, numero di parametri e indicazione se il tuo PC è sufficientemente potente.claudiobattaglino
- Seleziona un modello leggero (es. 3B o 7B) e clicca su “Download”; al termine, premi “Run” per caricarlo in memoria.
- Nella scheda “Chat” potrai scrivere prompt in italiano e ottenere risposte direttamente dal modello in locale.youtubedigitaconnect
LM Studio offre anche un endpoint locale per collegare applicazioni esterne via API o integrazioni con Python, utile se vuoi costruire i tuoi tool personalizzati.investglass+1
Primo utilizzo: cosa puoi fare con il tuo LLM in locale
Una volta che il modello è attivo, puoi usarlo in molti modi, con il vantaggio che tutti i dati restano sul tuo PC.associazionedschola+1
- Scrittura e riassunti: articoli, post per social, email, riassunti di documenti che incolli nella chat.
- Supporto allo studio: spiegazioni di concetti, generazione di esempi, domande/risposte su un argomento.
- Coding: suggerimenti di codice, refactoring e spiegazione di snippet, soprattutto con modelli ottimizzati per programmazione.portalweb.itbusinessyoutube
Molti utenti installano una combinazione di Ollama (per il controllo da terminale o Docker) e LM Studio (per l’uso quotidiano tramite interfaccia grafica).youtubeinvestglass
Passo successivo: personalizzare l’LLM con i tuoi dati
Dopo aver preso confidenza con l’esecuzione in locale, puoi fare un passo in più e specializzare il modello sui tuoi contenuti.youtubenetai
- Strumenti come Google Colab permettono di eseguire il fine-tuning di modelli leggeri (es. Llama 3.2 3B) usando dataset personali.youtube
- Una volta addestrato il modello, puoi esportarlo in formato compatibile (ad esempio GGUF) e ricaricarlo in Ollama o LM Studio per usarlo come un assistente “addestrato su di te”.youtubeassociazionedschola
Questa combinazione — addestramento in cloud, esecuzione in locale — offre un equilibrio tra potenza di calcolo, privacy e controllo sul modello.cio+1

