Newsroom
Tempo di lettura stimato:
Alice nel paese delle IA generative
Nel 2020 il mondo ha visto nascere GPT-3, un'opera senza precedenti che ha fatto da catalizzatore alla corsa sfrenata per lo sviluppo dei modelli di Intelligenza Artificiale Generativa.
Table of contents
Alice nel paese delle IA generative

ChatGPT attraverso lo specchio
Vi sarà di certo capitato di sentire qualche “non addetto ai lavori” parlare di intelligenza artificiale. Questo accade perché quest’ultima è entrata a far parte della Finestra di Overton¹.
Questa metaforica finestra, è un concetto delle scienze che racchiude quello che la società trova accettabile discutere: prima di ChatGPT, l’intelligenza artificiale era argomento di discussione per la cultura accademica, per i reparti di ricerca e sviluppo delle aziende e per nerd appassionati, ma da quando OpenAI ha aperto ChatGPT al mondo intero, l’intelligenza artificiale è diventata democratica, un argomento di cultura popolare, rendendo socialmente accettabile l’idea che le macchine producano linguaggio, conoscenza e decisioni. Ma non è solo una questione di popolarità: è cambiato il paradigma stesso. Siamo entrati nell'era dell'Intelligenza Artificiale Generativa.
A differenza dell'AI tradizionale, che per decenni si è limitata ad analizzare e classificare dati esistenti (come distinguere un'email di spam o riconoscere un gatto in una foto), questi nuovi modelli generano testo, codice, immagini e concetti ex novo. Non sono più semplici analisti, ma creatori.
Sebbene ChatGPT abbia fatto da apripista, oggi abbiamo tanti altri sistemi simili come Gemini, Claude, Deepseek, Mistral, ecc… ma cosa si cela dietro le quinte?

Dietro ogni interfaccia che usiamo vive uno strumento che riceve le nostre domande e ci fornisce delle risposte, questo prende il nome di LLM, ovvero Large Language Model (Grande Modello di Linguaggio).
Il nome di questo strumento è composto in due pezzi: “Large” e “Language Model”. I Language Model (LM) esistono nella letteratura scientifica dagli anni ‘50, non sono una novità assoluta e rappresentano dei sistemi statistici per elaborare e/o generare linguaggio naturale. Esistono diversi tipi di LM che differiscono per l’architettura che si nasconde sotto il cofano, quelli di cui stiamo parlando usano un’architettura chiamata Transformers, ideata da un team interno a Google nel 2017 ², e sono in grado di elaborare il testo grazie a dei componenti interni che prendono il nome di parametri. Ogni parametro è un peso che il modello usa per le sue elaborazioni. Il prefisso Large si riferisce proprio alla quantità di questi parametri, che per i modelli odierni sono nell’ordine delle centinaia di miliardi.
Un LLM è quindi un sistema artificiale statistico che ha assorbito enormi quantità di testo e ha imparato a generare linguaggio naturale.
Come funzionano davvero
Il punto cruciale nel comprendere questi strumenti giace nel fatto che questi non sanno nulla, quanto meno nel senso tradizionale del termine. Un LLM non ha un database di risposte, non cerca informazioni, non sa contare e neanche fare le moltiplicazioni da solo.
Un LLM è fondamentalmente un sistema di predizione della prossima parola: data una sequenza di parole (o meglio, di "token"), prevede quale sarà la prossima parola più probabile.
Facciamo un esempio concreto. Se scrivessimo "Il sole sorge a", un LLM ben addestrato prevederà con alta probabilità che la prossima parola deve essere "est". Non perché "sappia" dove sorge il sole, ma perché ha visto questa sequenza milioni di volte durante il suo addestramento.
Ma qui viene la parte affascinante: gli LLM non si fermano qui. Ogni volta che una parola viene generata, viene inclusa nella sequenza di uscita per poter generare la parola che seguirà logicamente. E così via, parola dopo parola (o meglio, token dopo token), costruendo risposte che sembrano intelligenti, coerenti, contestualmente appropriate.
Questa loro capacità predittiva non è stata “programmata” nel modo tradizionale, ma è un comportamento emergente dovuto alle dimensioni, all’architettura e all'addestramento su quantità enormi di dati; è stata una scoperta sorprendente per i ricercatori stessi ³.
È un po' come se insegnando a qualcuno tutte le parole di una lingua e come vengono combinate, quella persona sviluppasse automaticamente la capacità di raccontare storie, fare battute, argomentare logicamente.
Come legge un LLM
Quando parliamo con un LLM, il nostro testo non viene processato parola per parola, ma viene scomposto in unità, a volte più piccole di una singola parola, chiamate token.
Un token può essere una parola intera, parte di una parola, un numero, o anche un singolo carattere. Per esempio, la parola "incredibile" potrebbe essere scomposta in due token: "incred" e "ibile". Questo permette al modello di gestire anche parole che non ha mai visto durante l'addestramento.
Questa distinzione è importante perché gli LLM hanno dei limiti sul numero di token che possono processare in una singola conversazione, e anche perché molti servizi basati su LLM fanno pagare proprio in base al numero di token processati.
Capire gli LLM: strumenti, costi e scelte
Ad oggi, la letteratura scientifica non sa dirci se questi modelli “capiscano” o meno, ci sono vari schieramenti. Fortunatamente, dovendoli approcciare dal punto di vista degli utilizzatori, non serve porci questo interrogativo, la nostra unica preoccupazione riguarda il loro funzionamento come strumento all’interno del nostro contesto di utilizzo. Chi li capisce li tratta come strumenti: utili, veloci, fallibili. Non è una questione di entusiasmo tecnologico, è alfabetizzazione: come saper leggere e scrivere in un mondo pieno di testi.
Dal punto di vista aziendale conoscere lo strumento può avere un impatto importante. Un LLM non è una scatola magica, è un servizio con un costo e un comportamento preciso. Ogni richiesta si chiama prompt, ha un prezzo e produce un risultato che dipende molto da come la formuliamo oltre che dal modello in sé. Un buon prompt dipende da moltissimi fattori e può cambiare drasticamente l’output: prompt vaghi generano risposte vaghe; prompt ben progettati riducono errori, tempi e costi.
In più non tutti gli LLM sono uguali. Gran parte dei servizi commerciali come ChatGPT, Claude e Gemini offre modelli proprietari, accessibili tramite piattaforme o API: questi sono facili da usare e spesso molto performanti, ma hanno costi ricorrenti e offrono poco controllo sui dati e su come funzionano internamente. Dall’altro lato della barricata si piazzano i modelli open source, pubblicamente scaricabili e che possono essere eseguiti anche su infrastruttura propria: richiedono più competenze tecniche, ma permettono maggiore controllo, integrazione nei processi e, in molti casi, costi più prevedibili.
Scegliere un modello senza capire queste differenze significa andare alla cieca. Usare un LLM senza sapere come scrivere un prompt significa sprecarlo. Capire gli LLM serve a smettere di “provare a vedere cosa succede” e permette di inquadrarli come strumento di lavoro: con criteri, limiti e obiettivi chiari.
Conclusioni
Gli LLM rappresentano un cambio di paradigma nel modo in cui interagiamo con la tecnologia. Non sono magici, non sono perfetti, ma sono incredibilmente potenti quando usati con consapevolezza.
Capire come funzionano davvero ci permette di sfruttarli meglio, evitarne le trappole, e prendere decisioni informate su quando e come integrarli nei nostri processi aziendali.
Perché la vera innovazione non sta nell'usare l'ultimo strumento AI di moda, ma nel capire profondamente come funziona per sfruttarlo al meglio e se il miglior momento per imparare ad utilizzarli era ieri, il secondo miglior momento è di sicuro oggi!
Citazioni
[1] Finestra di Overton: https://it.wikipedia.org/wiki/Finestra_di_Overton
[2] Transformers: https://en.wikipedia.org/wiki/Attention_Is_All_You_Need
[3] Dario Amodei, coautore di GPT-3: https://www.darioamodei.com/post/the-urgency-of-interpretability
Richiedi subito informazioni
Creiamo qualcosa
di unico per il tuo brand.