Puoi eseguire i nuovi modelli GPT di OpenAI direttamente sul PC

Ai tech, businessman show virtual graphic Global Internet connect Chatgpt Chat with AI, Artificial Intelligence.
(Immagine:: Shutterstock/SomYuZu)

Come forse avete notato, OpenAI ha appena rilasciato due nuovi modelli di intelligenza artificiale – gpt‑oss‑20b e gpt‑oss‑120b – che rappresentano i primi modelli open-weight della compagnia dai tempi di GPT‑2.

Questi due modelli – uno più compatto, l’altro decisamente più grande – si distinguono per un aspetto fondamentale: possono essere eseguiti in locale. Funzionano direttamente su PC desktop o laptop, cioè sul dispositivo stesso, senza bisogno di connessione a Internet o del supporto del cloud, a patto che il vostro hardware sia abbastanza potente.

14-inch MacBook Pro

(Image credit: Future / Lance Ulanoff)

RAM minima richiesta: 16GB
La documentazione ufficiale di OpenAI indica chiaramente la quantità di RAM necessaria per eseguire questi modelli di intelligenza artificiale, e nel caso del più compatto gpt-oss-20b si parla di 16GB.

Questo significa che puoi eseguire gpt-oss-20b su qualsiasi PC o laptop dotato di 16GB di memoria di sistema (oppure 16GB di VRAM, o una combinazione delle due). Tuttavia, più memoria hai a disposizione, meglio è - o meglio, più veloce sarà l'esecuzione. Con il minimo sindacale di 16GB il modello potrebbe arrancare un po’, quindi l’ideale sarebbe avere qualcosa in più.

Per quanto riguarda i processori, AMD consiglia l’uso di una CPU Ryzen AI serie 300, abbinata a 32GB di RAM (con metà, ovvero 16GB, allocati come memoria grafica variabile). Per la GPU, la raccomandazione è un qualsiasi modello della serie RX 7000 o RX 9000 con 16GB di memoria – ma si tratta di suggerimenti, non di requisiti rigidi.

Il vero punto chiave è disporre di memoria sufficiente – i già citati 16GB – e idealmente che tutta quella quantità sia sulla GPU. In questo modo, tutto il lavoro viene gestito direttamente dalla scheda grafica, evitando rallentamenti dovuti al passaggio dei dati alla memoria di sistema. Detto ciò, la particolare architettura MoE (Mixture of Experts) adottata da OpenAI aiuta a ridurre al minimo questi colli di bottiglia, per fortuna.

A titolo di esempio, secondo quanto riportato su Reddit, gpt-oss-20b funziona senza problemi anche su un MacBook Pro M3 con 18GB di RAM.

TeamGroup RAM modules inserted into a motherboard

(Image credit: TeamGroup)

RAM richiesta: 80GB
Il discorso è simile anche per il più potente gpt-oss-120b, con la differenza - prevedibile - che serve molta più memoria. Ufficialmente, il requisito indicato è di 80GB di RAM, anche se non è necessario che tutta questa memoria risieda sulla scheda grafica. Detto ciò, questo modello di AI così esteso è stato concepito principalmente per essere utilizzato nei data center, su GPU dotate di 80GB di memoria dedicata.

Tuttavia, è possibile suddividere l’allocazione della memoria. Ad esempio, è possibile eseguire gpt-oss-120b su un computer con 64GB di RAM di sistema e una scheda video con 24GB di VRAM (come una Nvidia RTX 3090 Ti, secondo quanto riportato da un utente su Reddit), per un totale combinato di 88GB di memoria disponibile.

Per quanto riguarda le CPU, AMD in questo caso consiglia il suo processore di punta Ryzen AI Max+ 395, abbinato a 128GB di RAM di sistema, con 96GB assegnati come memoria grafica variabile.

In altre parole, per far girare gpt-oss-120b serve un desktop o laptop workstation di fascia altissima (magari con più GPU). Detto ciò, secondo alcune testimonianze non ufficiali, è possibile cavarsela anche con meno degli 80GB dichiarati – ma meglio non farci troppo affidamento.

ChatGPT logo

(Image credit: Shutterstock/AdriaVidal)

Se il vostro sistema rispetta i requisiti descritti sopra, puoi eseguire uno dei nuovi modelli gpt-oss utilizzando Ollama, la piattaforma consigliata da OpenAI per l'utilizzo di questi modelli.

Potete scaricare Ollama per PC Windows, Mac o Linux da questo sito: clicca sul pulsante per avviare il download dell’eseguibile, quindi, una volta completato, fai doppio clic sul file e seleziona Installa.

A questo punto, aprite Ollama ed esegui i seguenti due comandi per scaricare ed eseguire il modello desiderato. Nell’esempio qui sotto si fa riferimento a gpt-oss-20b, ma se vuoi usare il modello più grande, ti basta sostituire 20b con 120b.

ollama pull gpt-oss:20b

ollama run gpt-oss:20b

Se preferite un’alternativa a Ollama, potete usare LM Studio, eseguendo il seguente comando. Anche in questo caso, puoi sostituire 20b con 120b, o viceversa, a seconda delle tue esigenze:

lms get openai/gpt-oss-20b

Gli utenti di Windows 11 (o 10) possono anche optare per Windows AI Foundry (segnalato da The Verge).

In questo caso è necessario installare Foundry Local – con la precisazione che si tratta ancora di una versione in anteprima. Per tutti i passaggi da seguire, è possibile consultare una guida dedicata. Va inoltre tenuto presente che, al momento, è richiesta una scheda video Nvidia con 16GB di VRAM. Altri modelli di GPU, come le AMD Radeon, saranno supportati in futuro – ma, appunto, per ora siamo ancora in fase di anteprima.

Il supporto a macOS, infine, è previsto "a breve".

ChatGPT shown on a phone

(Image credit: Shutterstock/ Alex Photo Stock)

Come accennato all’inizio, anche se Sam Altman ha affermato che il modello AI più piccolo può funzionare su uno smartphone, si tratta di una dichiarazione un po’ forzata.

È vero che Qualcomm ha pubblicato un comunicato stampa (segnalato da Android Authority) in cui si parla dell’esecuzione di gpt-oss-20b su dispositivi con chip Snapdragon, ma il riferimento è più che altro a laptop - in particolare i Copilot+ PC con chip Snapdragon X - piuttosto che ai processori degli smartphone.

Far girare gpt-oss-20b su un telefono, oggi, non è una soluzione realistica, anche se tecnicamente possibile (a patto che il vostro smartphone abbia almeno 16GB di RAM). Detto ciò, è difficile aspettarsi risultati davvero soddisfacenti in termini di prestazioni.

Tuttavia, non siamo lontani dal momento in cui modelli di questo tipo potranno funzionare davvero bene anche su dispositivi mobili, e con ogni probabilità sarà una possibilità concreta nel prossimo futuro.

TOPICS

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.