Come creare un LLM sul proprio PC: guida passo passo

Negli ultimi anni i Large Language Model (LLM) sono usciti dai soli data center per arrivare direttamente sui nostri computer di casa. Questo significa poter usare un’AI conversazionale potente, gratuita e privata, senza inviare dati a server esterni.digitalworlditalia+1

Cosa significa “avere un LLM sul proprio PC”

Un LLM in locale è un modello di linguaggio installato sul tuo computer, che risponde ai tuoi prompt senza passare da servizi cloud come ChatGPT o Gemini. In pratica trasformi il PC in una piccola “centralina” di intelligenza artificiale sempre a disposizione per scrivere testi, riassunti, codice o rispondere a domande.investglass+2


Requisiti: hardware e sistema operativo

Per iniziare non serve una workstation da migliaia di euro, ma alcune caratteristiche minime aiutano molto.androidblog+1

  • CPU moderna (Intel/AMD degli ultimi anni o Apple Silicon).
  • Almeno 16 GB di RAM consigliati per modelli da 7 miliardi di parametri quantizzati.digitalworlditalia
  • Se possibile, una GPU con almeno 8 GB di VRAM (es. RTX 3060) per risposte più rapide, anche se molti modelli leggeri girano solo su CPU.androidblog+1

Gli strumenti che useremo (Ollama e LM Studio) funzionano su Windows, macOS e Linux, rendendo l’installazione accessibile anche a chi non è sviluppatore.html+1


Opzione 1: usare Ollama

Ollama è uno strumento open source che permette di scaricare ed eseguire modelli LLM in locale con comandi molto semplici.digitalworlditalia+1

Installazione di Ollama

  1. Vai sul sito ufficiale di Ollama e scarica il pacchetto per il tuo sistema operativo (Windows, macOS o Linux).devturtleblog+1
  2. Su Windows e macOS esegui il file di installazione con la procedura guidata classica.
  3. Su Linux puoi usare il comando da terminale:
    curl -fsSL https://ollama.com/install.sh | sh.html+1

Per verificare che tutto sia installato correttamente, apri il terminale e digita ollama --help: se il comando viene riconosciuto, sei pronto a lanciare il tuo primo modello.devturtleblog

Scaricare e avviare un modello (es. Llama 3)

Una volta installato Ollama, puoi scaricare ed eseguire un modello con una singola riga di comando.digitalworlditalia+1

  • Per esempio, per avviare Llama 3:
    ollama run llama3
  • Il primo avvio scaricherà i file del modello dalla libreria di Ollama, poi aprirà una sessione interattiva dove puoi iniziare a scrivere le tue domande.youtube​devturtleblog

Sono disponibili molti modelli open source (Llama, Mistral, Phi-3, Gemma) in diverse dimensioni; i tag “3B” o “7B” indicano il numero di parametri e quindi la complessità e il peso del modello.youtube​androidblog


Opzione 2: usare LM Studio con interfaccia grafica

Se preferisci una soluzione con interfaccia grafica stile “ChatGPT”, LM Studio è una scelta molto intuitiva.claudiobattaglino+1

Installazione di LM Studio

  1. Visita il sito di LM Studio (lmstudio.ai) e scarica il programma per Windows, macOS o Linux.claudiobattaglino+1
  2. Avvia il file di installazione e completa la procedura guidata; il software rileva automaticamente se può usare la GPU per accelerare il modello.youtube​investglass
  3. Alla prima apertura vedrai una schermata con la barra laterale e la sezione per cercare nuovi modelli.claudiobattaglino

LM Studio è pensato per permettere anche a utenti non tecnici di sperimentare con i principali LLM open source in pochi click.digitaconnect

Scaricare e usare un modello con LM Studio

Per iniziare a chattare con un LLM locale bastano pochi passaggi.digitaconnect+1

  • Clicca sulla sezione “Discover” o sull’icona della lente per aprire il catalogo dei modelli disponibili.claudiobattaglino
  • Per ogni modello vedrai informazioni come nome, architettura, numero di parametri e indicazione se il tuo PC è sufficientemente potente.claudiobattaglino
  • Seleziona un modello leggero (es. 3B o 7B) e clicca su “Download”; al termine, premi “Run” per caricarlo in memoria.
  • Nella scheda “Chat” potrai scrivere prompt in italiano e ottenere risposte direttamente dal modello in locale.youtube​digitaconnect

LM Studio offre anche un endpoint locale per collegare applicazioni esterne via API o integrazioni con Python, utile se vuoi costruire i tuoi tool personalizzati.investglass+1


Primo utilizzo: cosa puoi fare con il tuo LLM in locale

Una volta che il modello è attivo, puoi usarlo in molti modi, con il vantaggio che tutti i dati restano sul tuo PC.associazionedschola+1

  • Scrittura e riassunti: articoli, post per social, email, riassunti di documenti che incolli nella chat.
  • Supporto allo studio: spiegazioni di concetti, generazione di esempi, domande/risposte su un argomento.
  • Coding: suggerimenti di codice, refactoring e spiegazione di snippet, soprattutto con modelli ottimizzati per programmazione.portalweb.itbusiness​youtube​

Molti utenti installano una combinazione di Ollama (per il controllo da terminale o Docker) e LM Studio (per l’uso quotidiano tramite interfaccia grafica).youtube​investglass


Passo successivo: personalizzare l’LLM con i tuoi dati

Dopo aver preso confidenza con l’esecuzione in locale, puoi fare un passo in più e specializzare il modello sui tuoi contenuti.youtube​netai

  • Strumenti come Google Colab permettono di eseguire il fine-tuning di modelli leggeri (es. Llama 3.2 3B) usando dataset personali.youtube​
  • Una volta addestrato il modello, puoi esportarlo in formato compatibile (ad esempio GGUF) e ricaricarlo in Ollama o LM Studio per usarlo come un assistente “addestrato su di te”.youtube​associazionedschola

Questa combinazione — addestramento in cloud, esecuzione in locale — offre un equilibrio tra potenza di calcolo, privacy e controllo sul modello.cio+1


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

We use cookies to personalise content and ads, to provide social media features and to analyse our traffic. We also share information about your use of our site with our social media, advertising and analytics partners. View more
Cookies settings
Accept
Privacy & Cookie policy
Privacy & Cookies policy
Cookie name Active

Who we are

Suggested text: Our website address is: https://www.ivanoesposito.org/it.

Comments

Suggested text: When visitors leave comments on the site we collect the data shown in the comments form, and also the visitor’s IP address and browser user agent string to help spam detection.

An anonymized string created from your email address (also called a hash) may be provided to the Gravatar service to see if you are using it. The Gravatar service privacy policy is available here: https://automattic.com/privacy/. After approval of your comment, your profile picture is visible to the public in the context of your comment.

Media

Suggested text: If you upload images to the website, you should avoid uploading images with embedded location data (EXIF GPS) included. Visitors to the website can download and extract any location data from images on the website.

Cookies

Suggested text: If you leave a comment on our site you may opt-in to saving your name, email address and website in cookies. These are for your convenience so that you do not have to fill in your details again when you leave another comment. These cookies will last for one year.

If you visit our login page, we will set a temporary cookie to determine if your browser accepts cookies. This cookie contains no personal data and is discarded when you close your browser.

When you log in, we will also set up several cookies to save your login information and your screen display choices. Login cookies last for two days, and screen options cookies last for a year. If you select "Remember Me", your login will persist for two weeks. If you log out of your account, the login cookies will be removed.

If you edit or publish an article, an additional cookie will be saved in your browser. This cookie includes no personal data and simply indicates the post ID of the article you just edited. It expires after 1 day.

Embedded content from other websites

Suggested text: Articles on this site may include embedded content (e.g. videos, images, articles, etc.). Embedded content from other websites behaves in the exact same way as if the visitor has visited the other website.

These websites may collect data about you, use cookies, embed additional third-party tracking, and monitor your interaction with that embedded content, including tracking your interaction with the embedded content if you have an account and are logged in to that website.

Who we share your data with

Suggested text: If you request a password reset, your IP address will be included in the reset email.

How long we retain your data

Suggested text: If you leave a comment, the comment and its metadata are retained indefinitely. This is so we can recognize and approve any follow-up comments automatically instead of holding them in a moderation queue.

For users that register on our website (if any), we also store the personal information they provide in their user profile. All users can see, edit, or delete their personal information at any time (except they cannot change their username). Website administrators can also see and edit that information.

What rights you have over your data

Suggested text: If you have an account on this site, or have left comments, you can request to receive an exported file of the personal data we hold about you, including any data you have provided to us. You can also request that we erase any personal data we hold about you. This does not include any data we are obliged to keep for administrative, legal, or security purposes.

Where your data is sent

Suggested text: Visitor comments may be checked through an automated spam detection service.

Save settings
Cookies settings