Skip to main content

I modelli linguistici AI hanno un tic stilistico che li tradisce

Uno studio italiano rivela come gli LLM non sbaglino solo nei contenuti: ripetono ossessivamente la formula “non X, ma Y”, trasformando una figura retorica in marchio di fabbrica

Quando si parla di intelligenze artificiali generative, il dibattito ruota quasi sempre attorno alle cosiddette allucinazioni: date inventate, citazioni mai esistite, fatti distorti. Ma un nuovo lavoro del ricercatore italiano Filippo Lubrano (fondatore della startup di realtà virtuale Metaphora e membro di H-Farm) ci invita a guardare altrove: non tanto al contenuto, quanto allo stile.

La sua analisi mostra infatti che i modelli linguistici di grandi dimensioni (LLM) non si limitano a produrre errori fattuali. C’è un elemento ricorrente nella loro scrittura che li rende riconoscibili: l’uso sproporzionato della epanortosi enfatica, cioè la correzione immediata di un’affermazione attraverso la formula “non X, ma Y”.

Una figura retorica che diventa tic narrativo

Negli scritti umani, questa figura retorica ha una funzione precisa: ribaltare un’aspettativa, enfatizzare un concetto o creare un piccolo effetto sorpresa. Nei testi generati dalle AI, invece, diventa un’abitudine quasi meccanica, tanto da comparire tre volte più spesso che nei testi prodotti da persone.

I numeri parlano chiaro:

  • nei testi di ChatGPT e Claude si contano in media 27 epanortosi ogni 1000 frasi;

  • negli scritti umani le occorrenze scendono a 5;

  • nei dataset di addestramento ne compaiono circa 9.

Il rischio? Trasformare una figura retorica utile in un vero e proprio marchio di fabbrica che abbassa la qualità complessiva dei contenuti online.

Cos’è l’epanortosi enfatica

La struttura è semplice, quasi schematica. Alcuni esempi:

  • “Non è solo un caffè, è energia liquida.”

  • “Non è un blackout tecnico, ma il segnale di una rete fragile.”

Frasi di questo tipo colpiscono per immediatezza, ma proprio per questo sono facili da abusare. Negli scritti umani compaiono per sottolineare eccezioni o sfumature; negli output AI diventano scorciatoie stilistiche, utilizzate soprattutto nei passaggi di transizione.

Una regressione logistica sugli output ha confermato che l’epanortosi è un predittore affidabile di testo generato: quando la frequenza supera una certa soglia, è molto probabile che non sia farina del sacco di un autore in carne e ossa.

Perché succede

Leggendo i suoi studi, abbiamo individuato due fattori principali:

  1. I dataset di addestramento: i testi di marketing, self-help e comunicazione politica abbondano di formule “non… ma…”. Sono scritti che puntano a essere memorabili e convincenti.

  2. Il reinforcement learning from human feedback (RLHF): gli annotatori, premiando le risposte chiare e assertive, finiscono per incentivare ulteriormente l’uso di questo schema.

Il risultato è quello che Lubrano definisce sloganoid effect: un’apparente chiarezza che però riduce la varietà espressiva, appiattendo il linguaggio su binari pubblicitari o da clickbait.

Una lingua sempre più piatta

Il problema non è solo estetico, ma culturale. Ah, si, ho appena usato una epanortosi. Se gli utenti leggono continuamente testi costruiti secondo lo schema “non… ma…”, finiscono per assimilarlo e riproporlo nei propri contenuti. In questo modo si alimenta un circolo vizioso: i modelli lo apprendono dal web, lo amplificano, lo rilanciano e lo rinforzano nei dataset futuri.

Il risultato è una lingua digitale più povera, dominata da dualismi e slogan, con meno sfumature e alternative retoriche. E questo non riguarda solo l’inglese: i campioni analizzati mostrano lo stesso fenomeno in spagnolo, francese, italiano, cinese mandarino e arabo. Una sorta di “universale artificiale” che rischia di globalizzare lo stile generato.

Possibili rimedi

Sarebbe possibile arginare il fenomeno, ecco alcune proposte:

  • arricchire i dataset con testi che usano altri strumenti di enfasi (metafore, comparazioni, concessioni);

  • modificare i modelli di reward penalizzando la ripetizione eccessiva della formula;

  • spingere i prompt engineer a chiedere esplicitamente alternative retoriche.

L’obiettivo finale non è quello di eliminare l’epanortosi (resta una figura retorica preziosa) ma riportarla a scelta consapevole, non a default algoritmico.

Il quadro generale

La conclusione degli studi è chiara: limitarsi a parlare di allucinazioni significa guardare solo metà del problema. Gli LLM non modellano solo i contenuti, ma anche le forme.

Quando una forma retorica diventa un eccesso strutturale, rischia di cambiare non solo il modo in cui riconosciamo i testi artificiali, ma anche il modo in cui scriviamo noi stessi. È qui che entra in gioco il concetto di AI slop, ovvero quella produzione linguistica piatta e ripetitiva che ormai inonda la rete.

Le AI possono essere un supporto straordinario alla scrittura. Ma se non impariamo a gestirne i limiti, rischiamo che la loro “chiarezza” si trasformi in appiattimento culturale.

 

Fabio Crudele
ITC Security Specialist