L’intelligenza artificiale è un ramo dell’informatica nato tra gli anni ’40 e gli anni ’50 del Novecento e finalizzato alla creazione di sistemi in grado di apprendere, ragionare, interpretare, analizzare, decidere. L’obiettivo di scienziati, ricercatori, informatici che si dedicano a questa disciplina è quello di realizzare sistemi in grado di eseguire compiti complessi che in genere richiedono l’intelletto umano.
Il termine viene usato per indicare un vasto insieme di tecnologie, tra le quali rientra anche l’IA generativa, spesso abbreviata con “genAI”. Questo tipo di intelligenza artificiale non si limita a elaborare o analizzare informazioni esistenti, ma va oltre, utilizzando le medesime informazioni per generare contenuti nuovi, originali, inediti. Tutto ciò è reso possibile dall’uso di modelli di deep learning capaci di individuare relazioni e pattern anche molto complessi all’interno dei grandi dataset con i quali vengono addestrati e di ricombinare gli elementi su base statistica, tenendo conto del contesto. A seconda dell’output prodotto si possono distinguere Large Language Models (LLM), modelli linguistici progettati per generare testo in linguaggio naturale, generatori di immagini o di video, modelli in grado di generare voci, musica, effetti sonori.
Date le sue caratteristiche, l’IA generativa può essere collocata a buon diritto tra gli strumenti più utili per chi deve redigere testi. Sia i professionisti della penna sia i neofiti possono avvalersene in varie forme e a diversi livelli per trovare idee, migliorare i testi o addirittura, con le dovute attenzioni, scriverli da zero.
Quale tipo di genAI può essere di supporto a chi scrive?
Gli LLM sono i principali alleati di chi desidera avere a disposizione un assistente di intelligenza artificiale che lo aiuti nelle diverse fasi della redazione di un testo. Grazie a un addestramento effettuato su grandi quantità di contenuti testuali, queste AI sono infatti in grado di “comprendere” il linguaggio naturale, manipolare testi, generare contenuti coerenti, creare schemi e tabelle, effettuare traduzioni e riassunti, e molto altro.
Ciononostante, anche modelli destinati alla manipolazione e alla generazione di immagini, video, audio possono risultare utili a chi scrive. Questi permettono infatti di arricchire i testi con infografiche, illustrazioni, contenuti multimediali di vario genere, rendendoli maggiormente interessanti e attrattivi, nonché integrando diverse modalità di fruizione.
Nei paragrafi seguenti focalizzerò l’attenzione in modo specifico sui Large Language Model. Sono infatti questi che, se usati in modo intelligente e consapevole, possono trasformarsi in veri e propri assistenti alla scrittura e svolgere una parte delle attività normalmente assegnate a copywriter, ghostwriter, correttori di bozze, editor.
LLM: in quali fasi della creazione di testi usarli
Scrivere non significa solo digitare una parola dopo l’altra per creare frasi di senso compiuto e testi attinenti a un determinato argomento. Le fasi che caratterizzano questa attività sono numerose e vanno dalla ricerca di idee fino alla correzione delle bozze e all’editing. Gli LLM, assistenti virtuali a tutto tondo, possono fornire supporto lungo tutto il processo.
Le fasi variano in base all’obiettivo. Così, i passaggi richiesti dalla stesura di un saggio sono diversi da quelli che bisogna affrontare per realizzare una newsletter o un social post. Chi ad esempio vuole scrivere articoli per blog o eBook può sfruttare gli LLM per:
- l’ideazione: l’intelligenza artificiale generativa può supportare il brainstorming, aiutando a trovare nuove idee, decidere argomenti e titoli, definire il calendario editoriale;
- la progettazione: gli LLM risultano utili anche per stabilire il tono di voce e la struttura dei testi, definire la scaletta degli argomenti, decidere la suddivisione di paragrafi o capitoli;
- la ricerca e la verifica: alcuni strumenti possono essere utilizzati, con le giuste precauzioni e i controlli del caso, per trovare informazioni e verificare i dati e le fonti;
- la scrittura: i modelli linguistici svolgono egregiamente il ruolo di assistenti durante la fase di scrittura vera e propria dei contenuti, sia che si decida di partire da zero sia che si possieda già una bozza da ampliare e rielaborare;
- la revisione: terminati il testo, l’intelligenza artificiale può indossare le vesti del correttore di bozze e dell’editor, e aiutare a correggere gli errori, adattare il tono di voce, migliorare la struttura e altro ancora;
- la traduzione: sempre con le dovute precauzioni e controlli successivi, gli LLM sono in grado di assistere durante la fase di traduzione;
- l’ottimizzazione: per finire, possono essere usati per migliorare i testi in ottica SEO e GEO.
Per quanto riguarda quest’ultimo passaggio, ritengo utile fare una precisazione. Sebbene gli LLM possano inserire parole chiave nei testi e fornire consigli circa le più adatte da utilizzare, da soli, ossia se non integrati con sistemi esterni, non hanno accesso a dati e statistiche relativi ai volumi di ricerca delle keyword; per questo motivo, laddove li si volesse utilizzare professionalmente per fini SEO/GEO, sarebbe necessario collegarli a strumenti specifici come SEOZoom, Semrush e simili.
Quali tipi di testi aiutano a scrivere
Così come possono aiutare in tutte le fasi della creazione di un testo, gli LLM, grazie alla loro versatilità, risultano utili per realizzare scritti di ogni tipo. Non solo articoli per blog, guide passo passo, tutorial, ma anche testi per:
- marketing e comunicazione, dalle email professionali ai social post, passando per newsletter, comunicati stampa, slogan pubblicitari;
- siti web e eCommerce, dai testi di presentazione e dalle schede prodotto fino ai metadati utili per il posizionamento sui motori di ricerca;
- editoria, dai libri di saggistica alle opere di narrativa, passando per prefazioni, quarte di copertina, sinossi;
- contenuti multimediali come gli speech per video e podcast, gli script per i webinar, le sceneggiature per le clip promozionali;
- conferenze, dal testo da leggere durante gli interventi alla generazione delle slide di supporto, passando per report post-evento e materiali di supporto.
Insomma, è possibile usarli, almeno in potenza, per creare qualunque tipo di contenuto testuale.
I vantaggi dell’uso degli LLM per l’elaborazione di testi
Integrare gli LLM nei processi di scrittura consente di ridurre i tempi necessari per trasformare una semplice idea in un contenuto ben strutturato e pronto per essere diffuso, nonché di automatizzare i passaggi più noiosi e ripetitivi. Delegare a questi strumenti attività come formattazione, correzione delle bozze, adeguamento del tono di voce permette di dedicare più tempo ed energie alle fasi più importanti della scrittura, ossia a quelle per le quali l’intervento dell’intelletto umano resta imprescindibile.
L’ottimizzazione dei flussi di lavoro garantita dall’AI non si limita a liberare tempo, ma aiuta anche a rendere più scalabile la produzione di testi e a tagliare i costi operativi.
Per finire, attraverso l’uso consapevole di questi strumenti, anche chi ha buone idee, ampie conoscenze e competenze verticali, ma scarse doti di scrittura, può produrre in autonomia testi ben strutturati e articolati, formalmente corretti e allineati agli obiettivi definiti.
Problemi legati all’uso degli LLM nella scrittura
Tanti i vantaggi, dunque, ma tanti anche i problemi. Questi riguardano in particolare la qualità, l’affidabilità, la coerenza, l’originalità dei contenuti, ma toccano anche aspetti come la presenza di bias e la tutela della privacy. In alcuni ambiti, anche il fatto stesso che uno scritto sia stato generato dall’Intelligenza Artificiale – e venga rilevato come tale da appositi software, non sempre affidabili – diventa un problema.
Nei seguenti sottoparagrafi presento a grandi linee i problemi più comuni con i quali deve fare i conti chi usa l’IA come assistente alla scrittura. L’infografica, generata con ChatGPT, sintetizza i punti principali.

Allucinazioni
Questo è uno dei problemi più noti e riguarda la possibile presenza, nei testi generati dall’IA, di informazioni espresse in modo chiaro, sicuro e convincente, ma errato, false o non attinenti al contesto. Dalle statistiche alle fonti, passando per citazioni, notizie, link, consigli tecnici, praticamente ogni passaggio, seppure grammaticalmente corretto e scritto seguendo lo stile e il tono di voce richiesti, potrebbe non avere alcuna relazione con dati e fatti reali e verificabili.
Tra le principali cause di questo problema rientra il meccanismo stesso con cui funzionano gli LLM, il quale non ha nulla a che fare con il ragionamento umano. Per rispondere a una domanda, una persona cercherebbe, in primo luogo, di comprendere il significato della richiesta a livello semantico; fatto questo, attingerebbe in modo consapevole e intenzionale alle proprie conoscenze oppure a fonti esterne per formulare una risposta sensata ed esaustiva. I modelli linguistici prendono invece l’input dell’utente, in genere formulato in linguaggio naturale, e lo suddividono in token (parole intere o parti di esse, nonché simboli). Ogni token viene quindi trasformato in rappresentazioni numeriche (embedding) che codificano relazioni semantiche tramite i pattern statistici appresi in fase di addestramento e consentono al meccanismo di attenzione di pesare l’importanza dei vari elementi per individuare quelli più rilevanti in base al contesto. Successivamente, gli LLM usano i parametri di addestramento per costruire la risposta una parola alla volta, su base predittiva, selezionando via via i token che hanno maggiori probabilità di seguire quelli che li precedono. Sono proprio i fattori probabilistici che possono portare a ottenere testi plausibili, convincenti, ben scritti, ma contenenti informazioni errate e non verificate.
Altri fattori che concorrono alla comparsa di allucinazioni sono la qualità dei dati usati per l’addestramento, l’assenza di un controllo della veridicità delle informazioni e il fatto che, durante il processo di ottimizzazione dei modelli, vengono spesso valutate positivamente le risposte più fluide, anche quando contengono fatti inventati.
Le conseguenze di questo problema non devono essere sottovalutate, in quanto può portare alla diffusione di notizie false, causando disinformazione e intaccando credibilità e reputazione.
Bias
Altro problema che, se non tenuto sotto controllo, può danneggiare la reputazione e la credibilità di chi divulga i testi generati con l’aiuto dell’AI, quello relativo ai bias consiste, in poche parole, nella presenza e nella perpetuazione di distorsioni, pregiudizi, stereotipi all’interno dei testi generati dagli LLM.
In realtà, non solo gli LLM, ma pressoché tutti i sistemi di Intelligenza Artificiale possono presentare questo problema. La causa prima risiede nei dati usati in fase di addestramento, i quali possono contenere pregiudizi o risultare discriminatori, non rappresentativi o incompleti. Anche i feedback degli utenti, le scelte degli sviluppatori, la struttura dell’algoritmo e i prompt possono aumentare il rischio di bias.
Incoerenze e ripetizioni
Sebbene qualunque testo generato con l’intelligenza artificiale possa presentare incoerenze e ripetizioni, queste interessano in particolare quelli più lunghi e complessi. Le cause sono molteplici e, tra le principali, rientrano il modo in cui gli LLM costruiscono le frasi, ossia un token alla volta; l’assenza di ottimizzazione globale del testo; la mancata ottimizzazione dei prompt; la saturazione della “finestra di contesto”. Quest’ultima locuzione viene usata per indicare la quantità massima di token che l’AI può ricordare, richiamare, rielaborare nel corso di una singola chat.
I modelli linguistici più recenti possiedono finestre di contesto molto ampie, in alcuni casi pari addirittura a 1 milione di token; ciononostante, non è raro esaurirle, soprattutto quando si lavora su testi molto lunghi o quando si crea una chat per compiti specifici – ad esempio rispondere a email, generare titoli per articoli di blog, effettuare correzioni delle bozze. Quando questo avviene, o comunque quando ci si avvicina molto al limite della finestra, il modello inizia a “dimenticare” dettagli importanti o, per meglio dire, a escludere dal contesto i token più lontani nella chat, nel prompt o nell’output. Questo porta alla comparsa di incoerenze e ripetizioni.
Se non tenuti sotto controllo, questi problemi riducono la qualità del testo e lo rendono confuso e meno fluido.
Scarsa originalità
Ulteriore problema è la diffusione di testi non originali e privi di personalità.
Oggi gli LLM sono alla portata di tutti, spesso anche in forma gratuita. Chiunque può sedersi davanti a un computer o prendere in mano uno smartphone e porre domande a un chatbot AI per ottenere risposte plausibili. Risposte che, pur variando nella forma e pur essendo influenzate dal modo in cui l’utente pone la domanda, forniscono informazioni di base molto simili. Il motivo è da ricercarsi nel meccanismo probabilistico e statistico su cui si basa il funzionamento degli LLM, il quale tende a scegliere gli elementi che compaiono nei dati di addestramento con maggiore frequenza.
Date queste premesse, quale potrebbe essere l’utilità, per l’utente finale, di articoli, guide, tutorial, eBook interamente (e sottolineo interamente) redatti da modelli generativi? Anche se ben scritti e privi di errori, testi realizzati in questo modo, ossia senza un concreto apporto umano, non presentano, a mio parere, vero valore aggiunto e rischiano di contribuire a quell’appiattimento culturale che appare sempre più evidente sul web (e non solo).
Problemi di privacy e tutela dei dati
I problemi derivanti dall’uso degli LLM non riguardano solo la qualità dell’output, ma anche aspetti relativi alla privacy e alla tutela dei dati personali. Questi si manifestano in particolare quando nei prompt o nei documenti forniti agli LLM che girano su piattaforme online sono presenti dati sensibili. In questo caso, infatti, tali dati vengono condivisi con terze parti che, in base ai servizi forniti, alle impostazioni dell’account e a quanto stabilito nei termini contrattuali, potrebbero usarli per addestrare i modelli e conservarli sui propri server. Questo potrebbe aumentare il rischio di violazione dei dati e rendere più difficile mantenere la conformità alle norme vigenti in tema di privacy e tutela dei dati.
Intelligenza artificiale generativa per scrivere testi: strategie per risolvere i problemi
Mettere in atto strategie utili per superare i problemi descritti fino a questo punto significa andare oltre la scrittura di un prompt di base e il semplice copia-incolla dell’output. Affinché il risultato sia di buona qualità, è necessario dedicare tempo a ogni fase del lavoro, guidare l’IA lungo tutto il processo di generazione, non delegare tutto allo strumento, mantenere vivo il senso critico e non considerare gli output ottenuti come verità assolute e inconfutabili. Avere le idee chiare su ciò che si desidera ottenere è fondamentale, così come il non lasciarsi ammaliare da risposte ben formulate e apparentemente originali, ma che potrebbero allontanare dagli obiettivi o essere errate sotto diversi aspetti.
Le principali “strategie” che possono aiutare a ottenere dei buoni testi sono:
- l’ottimizzazione dei prompt: un’accurata definizione del contesto e l’inserimento di istruzioni chiare e dettagliate aiutano ad aumentare l’originalità, migliorare la coerenza stilistica e di contenuto, ridurre le allucinazioni e l’impatto dei bias;
- la creazione di una base di conoscenza personalizzata: tramite il caricamento di documenti, l’indicazione di link, la creazione di una RAG è possibile ridurre ulteriormente le allucinazioni e aumentare originalità e personalizzazione;
- lo sviluppo graduale del testo: seguire un processo di generazione passo passo che guidi l’AI verso il risultato stabilito aiuta a ridurre incoerenza, ripetizioni, allucinazioni;
- il controllo degli output: questo passaggio consente di individuare bias, allucinazioni e altri problemi sfuggiti durante la generazione del testo e di correggere il tiro;
- l’esclusione dei dati sensibili: si tratta di uno step fondamentale per ridurre i problemi di privacy;
- l’impiego di LLM in locale: questa soluzione è ideale quando si desidera ottenere un elevato livello di privacy, aumentare le possibilità di personalizzazione, utilizzare una RAG non collegabile alle piattaforme online.
Di seguito, un breve approfondimento su ognuna di queste strategie.
L’ottimizzazione dei prompt
Nell’ambito dell’AI generativa, il “prompt” è l’input che guida i modelli linguistici – ma anche quelli che generano immagini, video o altro – nella generazione di output.
Comunemente impiegato per indicare lo “user prompt”, in italiano “prompt utente”, ossia il testo digitato nella chat e i file ad essa allegati, il termine include anche, nella sua accezione più ampia, il cosiddetto “system prompt” o “prompt di sistema”. Chi usa gli LLM su piattaforme online come ChatGPT, Claude, Jasper.ai o Sudowrite, può personalizzare esclusivamente i prompt utente, in quanto quelli di sistema vengono gestiti “dietro le quinte” e risultano invisibili agli utenti finali. Al contrario, usando i modelli linguistici tramite chiamate API, ad esempio in locale o per creare agenti, si ha la possibilità di intervenire anche sul prompt di sistema.
Sebbene la personalizzazione di quest’ultimo offra un aiuto in più nel superamento di problemi come allucinazioni, bias, mancanza di originalità e, in alcuni contesti, possa risultare decisiva, in molti casi l’uso dei soli user prompt risulta sufficiente. Questo, a patto di gestirli nel modo corretto, evitando, ad esempio, domande o richieste superficiali o basilari come “Scrivi un articolo che tratti di intolleranze alimentari”, “Redigi un’email per ringraziare il cliente x dell’acquisto effettuato”, “Definisci una scaletta per un libro sulle tecniche creative”. Sebbene in grado di generare output tutto sommato pertinenti, questi prompt sono troppo generici e non possono far altro che produrre risultati altrettanto generici e privi di personalità.
Per ottenere risultati di qualità, è necessario scrivere prompt chiari e ben costruiti, completi di informazioni, dettagli, dati, indicazioni rilevanti che possano guidare l’operato dell’LLM e favorire l’elaborazione di testi pertinenti. In rete e su libri di settore è possibile trovare numerosi framework che aiutano in questo compito, offrendo semplici strutture di base da seguire. Tra i tanti rientrano, a puro titolo d’esempio, il RACE (Role, Action, Context, Expectation), il RICE-D (Ruolo, Istruzioni, Contesto, Esempio, Domande), lo STAR (Situation, Task, Action, Result), il RASCEF (Role, Actions, Steps, Context, Example, Format).
Personalmente, preferisco pensare i prompt come composti da due elementi essenziali:
- il contesto
- le istruzioni.
Il primo comprende tutto ciò che definisce lo scenario, il perimetro entro il quale l’IA può muoversi per generare un testo in linea con aspettative. Tra gli elementi che risulta utile includere vi sono, in primo luogo, il Ruolo (quel “Role” presente nei framework inglesi), ossia l’identità assegnata all’AI (ad esempio “Sei un allergologo esperto nella scrittura di articoli divulgativi” oppure “Sei un formatore esperto di tecniche creative”) e il Pubblico, ovvero il target che fruirà del testo (“Scrivi per dei bambini di 6 anni” oppure “Il target del testo è composto da designer che desiderano migliorare le loro capacità creative”). La loro presenza fornisce all’AI le informazioni necessarie per orientarsi all’interno della base di conoscenza e generare output coerenti, presentandoli con terminologie e registri adeguati.
Altri elementi che permettono di definire il contesto sono il background, le definizioni, l’indicazione delle fonti da utilizzare, i materiali allegati come testi da riassumere, dati grezzi da rielaborare, documenti che consentono di fornire all’AI una base di conoscenza aggiuntiva.
Le istruzioni comprendono invece tutto ciò che serve per guidare la creazione del testo, definendo l’azione che deve essere di volta in volta effettuata (riassumere, analizzare, scrivere, riscrivere, correggere ecc.), i vincoli da rispettare, la struttura dell’output (elenco puntato, articolo diviso in paragrafi, tabella e via dicendo). Tra le altre cose, possono includere indicazioni circa il tono di voce, lo stile di scrittura, la lunghezza massima o minima del testo, le parole chiave da utilizzare e i termini da evitare. Per ottenere dei buoni risultati, è inoltre possibile ricorrere a tecniche come il “Few-Shot” (in italiano “Pochi esempi”) e la “Chain of Thought” (la cosiddetta “Catena di pensiero”).
Giocando bene con questi elementi, si può raggiungere un eccellente livello di personalizzazione del testo, aumentarne l’originalità e migliorarne la coerenza.
La base di conoscenza
Fornire all’intelligenza artificiale una base di conoscenza che vada oltre i dati già in suo possesso è uno dei metodi più efficaci per evitare di ottenere testi banali, uguali a tanti altri, nonché per ottenere la massima personalizzazione, riducendo al contempo il rischio di diffondere informazioni errate o inconsistenti.
Il materiale da fornire all’LLM potrà essere costituito da documentazione specifica, riassunti, pagine web, liste puntate, schemi, tabelle, immagini e qualsiasi altro elemento permetta di fornire allo strumento in uso tutte le informazioni:
- sulle quali si desidera lavori
- che dovrà inserire nel testo.
Il modo più immediato per effettuare questo passaggio consiste nell’allegare i materiali al prompt. Di facile applicazione, questo metodo presenta però alcuni limiti. In particolare, permette di utilizzare, a causa dei limiti legati alla dimensione della finestra di contesto, un numero esiguo di file e obbliga a caricarli ogni volta che viene avviata una nuova chat.
Per superare questi problemi, si può fare ricorso alla RAG, acronimo di “Retrieval Augmented Generation”. Traducibile in italiano come “Generazione aumentata dal recupero” (di dati e informazioni), questa tecnica consiste nel creare una base di conoscenza esterna dalla quale il modello linguistico possa ricavare blocchi di informazioni pertinenti ogni volta che l’utente invia un input, indipendentemente dal fatto che utilizzi sempre la stessa chat o avvii una nuova conversazione. Oltre a questo, permette di gestire un gran numero di file, link e altre fonti grazie ai processi di suddivisione elle informazioni in blocchi più piccoli, vettorializzazione, memorizzazione e indicizzazione in un database vettoriale.
La creazione di una RAG può essere effettuata sia ricorrendo alla programmazione pura sia utilizzando strumenti che semplificano il processo e consentono di adottare soluzioni low code o addirittura no code. Tra queste ultime rientrano:
- i GPT personalizzati di ChatGPT: consentono di caricare un massimo di 10 file (NB: alcune fonti indicano un numero massimo di file pari a 20; nelle FAQ ufficiali di ChatGPT è però indicato, nel momento in cui scrivo questo articolo, che il limite è di 10 file) di dimensione non superiore ai 512 MB e 2M token. Solo gli utenti che attivano un piano a pagamento possono creare GTP personalizzati;
- i Notebook di Google: permettono di aggiungere fino a 50 fonti nella versione gratuita e fino a 300 in quelle a pagamento, possono essere collegati a Gemini, tramite funzioni integrate, e a Claude, attraverso MCP;
- i Progetti di Claude: si tratta di una soluzione che non usa sempre la RAG. Questa è infatti disponibile solo per i piani a pagamento e si attiva automaticamente quando vengono caricati molti file e informazioni.
A questo elenco andrebbero probabilmente aggiunti anche i Gem di Gemini, molto simili ai GTS personalizzati e ai progetti di Claude. Non ho però trovato, al momento, informazioni certe circa l’utilizzo, da parte di questo strumento, di un vero e proprio sistema RAG.
Al di là delle differenze che le caratterizzano, tutte e quattro queste soluzioni (Gem compresi) consentono di caricare documenti e collegare basi di conoscenza esterne in pochi passaggi, attraverso interfacce intuitive e senza bisogno di mettere mano al codice. Dopo il caricamento, l’utente può iniziare subito a chattare con un’AI, la quale genererà risposte tenendo conto della nuova base di conoscenza.
Lo sviluppo passo passo del testo
Chiedere agli LLM di generare in una volta sola testi lunghi e complessi è il modo migliore per incorrere in mancanza di originalità e coerenza, nonché in ripetizioni o scarsa aderenza agli obiettivi di scrittura. Per superare tali problemi, è utile avere ben chiaro il risultato che si vuole ottenere e procedere, per prima cosa, a definire la scaletta di argomenti, paragrafi o capitoli. Fatto questo, si può iniziare a generare il testo, fornendo al modello linguistico prompt ben strutturati e lavorando su una sezione alla volta. Ogni sezione potrà essere ampliata a poco a poco tramite richieste successive, anche lavorando su più chat per evitare di saturare la finestra di contesto.
Prendiamo come esempio la stesura di un articolo per blog. Anziché chiedere all’AI di elaborare un testo da x parole sull’argomento y, si dovrà dividere il lavoro in più richieste, partendo ad esempio dalla scaletta e proseguendo via via con la bozza e il successivo ampliamento dell’introduzione, la bozza e l’ampliamento del primo paragrafo H2, la bozza e l’ampliamento del secondo H2 e così via fino al termine dell’articolo.
Questo procedimento permette di avere maggiore controllo sul testo e di verificare a mano a mano la tenuta della coerenza e l’assenza di ripetizioni, allucinazioni e bias. Per renderlo più semplice, si può ricorrere a funzionalità come Canvas di ChatGPT, uno spazio di lavoro pensato per l’editing, il quale consente sia all’AI sia all’utente di apportare modifiche e aggiunte al testo.
Il controllo dell’output
Gli output restituiti dall’intelligenza artificiale generativa diventano, di giorno in giorno, più curati e precisi. Ciononostante, anche quando si parte da prompt dettagliati, si fornisce una base di conoscenza personalizzata, si guida la generazione un passo alla volta, il testo ottenuto può presentare allucinazioni, bias, incongruenze, ripetizioni. Proprio per questo motivo, è sempre fondamentale sottoporlo a un accurato controllo.
La verifica dovrebbe riguardare non tanto la grammatica e la sintassi, le quali in genere non presentano difetti di rilievo, quanto piuttosto la veridicità dei fatti e dei dati riportati, nonché la successione logica di eventi, frasi e contenuti, e l’aderenza al contesto. I controlli possono essere effettuati sia utilizzando la stessa – o altre – genAI con accesso alla base di conoscenza utilizzata e/o alla ricerca sul web sia tramite la normale lettura e la verifica manuale delle informazioni e dei dati.
L’esclusione dei dati sensibili da documenti e prompt
Quando si usano gli LLM come assistenti alla scrittura, il modo più semplice per tutelare i dati di clienti, di fornitori, della propria azienda o di altri soggetti, riducendo i rischi di privacy e operando nel rispetto delle norme vigenti consiste nel non fornirli all’LLM. Questo non significa solo non scrivere nomi e cognomi, indirizzi, numeri telefonici e altri dati sensibili nei prompt, ma anche accertarsi che gli stessi dati non compaiano nei file allegati alla chat o impiegati per la costruzione della RAG.
Laddove i documenti contenessero dati sensibili, sarebbe necessario anonimizzarli prima del caricamento. Molto più efficace del semplice oscuramento, della pseudonimizzazione o di altre tecniche simili di tutela dei dati, l’anonimizzazione, come si legge sul sito dell’European Data Protection Board, rende i dati del tutto anonimi “in modo tale che l’individuo non sia o non sia più identificabile con alcun mezzo che sia ragionevolmente probabile che venga utilizzato”.
L’uso degli LLM in locale
L’uso degli LLM non comporta sempre la condivisione di dati e informazioni con terze parti. Questo avviene quando si ricorre a servizi consumer AIaaS (Artificial Intelligence as a Service) basati su cloud come quelli forniti, tramite piattaforme, app o chiamate API, da OpenAI, Google, Anthropic, per citare solo i tre player più noti.
Esistono però altri modi per usare i modelli linguistici, ossia:
- in locale, ricorrendo a software come Ollama, LM Studio o GPT4All
- su virtual private cloud (VPC)
- affittando GPU, in genere su public cloud
- usando le AIaaS con abbonamenti business.
Ognuna di queste soluzioni presenta vantaggi e svantaggi, sia in termini di utilizzo sia per quanto riguarda la gestione dei dati e la tutela della privacy.
In linea generale, far girare un LLM in locale garantisce una maggiore tutela dei dati, in quanto evita che questi vengano condivisi e salvati in spazi di terze parti. Ciononostante, i rischi non mancano e vanno dall’installazione di modelli non sicuri alle criticità e vulnerabilità di strumenti come Ollama. Per evitare problemi, è necessario configurare e gestire correttamente l’ambiente, prestando attenzione a ogni aspetto relativo alla sicurezza. Tra questi rientrano, a titolo d’esempio, l’isolamento di rete, il controllo dell’integrità dei modelli e il loro aggiornamento, l’adozione di soluzioni per evitare l’esposizione di endpoint, l’implementazione di sistemi per il controllo degli accessi e l’autenticazione, l’uso di firewall e altre soluzioni per la prevenzione di prompt injection.
L’uso di LLM in locale richiede computer sufficientemente potenti, le cui caratteristiche dovranno variare in base ai modelli utilizzati. Per ottenere esperienze fluide da quelli da 7B o 13B parametri, è in genere consigliabile disporre di GPU dedicata con VRAM da almeno 8 o 12 GB e di RAM da un minimo di 16 GB.
LLM come assistenti alla scrittura: come procedere in pratica
Una volta acquisite informazioni di base circa il funzionamento e i limiti dei modelli linguistici, i problemi derivanti dal loro utilizzo e i principali metodi da adottare per superarli, si può passare dalla teoria alla pratica.
Sebbene nulla impedisca di avviare subito una chat con l’AI per dare inizio alla generazione di testo, è preferibile far precedere questa attività da quattro passaggi strettamente legati fra loro:
- decidere che cosa scrivere (tipo di testo, caratteristiche, argomento generale)
- definire gli obiettivi sia del testo (finalità) sia dell’uso degli LLM (velocizzare, semplificare, abbattere i costi, ottimizzare, trovare idee)
- stabilire durante quali step usare i modelli linguistici (ideazione, progettazione, ricerca, verifica, scrittura, revisione, traduzione, ottimizzazione)
- scegliere lo strumento o gli strumenti da usare(piattaforme in cloud orizzontali o verticali, LLM in locale, software e strumenti per implementare conoscenza o funzionalità)
Avere ben chiaro che cosa si vuole scrivere e perché, nonché i motivi che spingono a usare l’AIgen, aiuta sia a individuare gli strumenti più adatti sia a decidere quando e per cosa farne uso. Per fare solo qualche esempio, né esaustivo né limitante, laddove l’obiettivo fosse quello di scrivere un romanzo, sci si potrebbe affidare a piattaforme verticali come Sudowrite, mentre per la ricerca online di dati e fonti affidabili sarebbe preferibile orientarsi verso uno strumento come Perplexity. Nel caso in cui si volessero realizzare testi con finalità di marketing, dagli articoli alle newsletter, risulterebbe utile puntare su assistenti alla scrittura come Jasper.ai, integrati con piattaforme tipo Semrush se si necessita di ottimizzazione SEO. Per analizzare e riassumere testi (non contenenti dati personali e sensibili), video o audio si può usare NotebookLM, mentre per chat pure e discorsive finalizzate a trovare nuove idee, stimolare la creatività, effettuare correzioni sintattiche e grammaticali, ottenere output con formattazione specifica si può ricorrere ai noti ChatGPT, Gemini e Claude. Laddove l’obiettivo fosse quello di automatizzare processi legati alla scrittura, si potrebbero usare le API dei modelli linguistici per collegarli a strumenti come Make o n8n.
Terminati questi passaggi, si può fare un primo passo avanti ed effettuare l’iscrizione alle piattaforme scelte, valutando con attenzione i vari piani disponibili, oppure procedere con l’installazione dei software in locale, su VPC o su cloud pubblico. Fatto questo, si potrà procedere, laddove necessario, con ulteriori step preliminari – la creazione di una base di conoscenza esterna, il collegamento dei vari strumenti tra loro tramite API o MCP, la configurazione delle impostazioni -, prima di dare inizio allo scambio di input-output con l’LLM scelto.

