Oggi produrre contenuti online è come accendere l’interruttore della luce o aprire il rubinetto dell’acqua: una commodity diffusa, a cui tantissimi – quasi tutti – hanno accesso. Proprio per questo, il vantaggio competitivo di un’azienda si è spostato.
Contenuti e intelligenza artificiale
Produrre contenuti con l’AI è diventato facile, veloce, alla portata di tutti. Ma sono di reale valore?
Usare l’intelligenza artificiale per produrli è giusto o no? Certo che lo è. Ma serve quel qualcosa in più.
Il significato è il nuovo valore
Partiamo, come è logico fare, dal nocciolo della questione: produrre contenuti grazie all’AI è facile, produrre significato invece non lo è.
In un mondo di testi generati da esseri umani e da AI, il vantaggio competitivo si sposta da chi produce di più e più velocemente a chi sa dare senso a ciò che produce. Questo vale per le aziende, per i professionisti della comunicazione, per chiunque crei contenuti o li commissioni ad altri.
Una delle voci più risonanti sull’AI in questo momento storico, il filosofo italiano Luciano Floridi, ha introdotto un concetto che aiuta a spiegare questa nuova situazione in cui tutti ci troviamo, quello di “capitale semantico“.
Di che si tratta: ognuno di noi ha un proprio capitale semantico, un valore “spendibile” (di qui il termine “capitale”) che aggiunge ulteriore valore alla nostra vita: è la somma di tutta l’informazione e la conoscenza che possediamo per esperienze personali, per cultura, per educazione, per patrimonio di conoscenze e storie da raccontare (anche maturate in conseguenza di fallimenti ed errori).
Un valore, un capitale, che ci permette di capire noi stessi, il mondo là fuori, gli altri, e ci fa modellare la nostra esistenza, dandole unicità e una direzione.
Ciò che – in buona sostanza – ci rende unici.
E, in quanto tali, distinguibili dalla massa. L’intelligenza artificiale, lo avrai notato, tende per “natura” alla mediana, alla proposta meno dirompente e più statisticamente probabile, in tutto ciò che produce.
Se ragioniamo ancora un secondo sul nocciolo della questione con cui abbiamo aperto, grazie al concetto di capitale semantico, è facile intuire come il vantaggio competitivo dei contenuti di un’azienda non è nell’avere informazioni che altri non hanno (un’asimmetria informativa): l’accesso alle informazioni, alla tecnologia con cui possono essere trattate, interpretate, scritte, è ormai a beneficio di tutti.
Si parte alla pari.
Il vantaggio competitivo è nel sapere usare meglio degli altri questi dati che tutti possono avere per costruire significato: è costruire un’asimmetria semantica.
Il valore dell’informazione si sposta dall’averla, alla capacità di interpretarla.
Perché parlarne ora: il contesto di inizio 2026
La realtà è che aziende e imprese oggi si trovano ad operare in una società abbastanza polarizzata: da un lato l’entusiasmo per l’AI, dall’altro lo scetticismo o (peggio) l’opposizione.
McKinsey, nel suo report annuale “The State of AI in 2025” (novembre 2025), riporta che il 78% delle organizzazioni dichiara di usare l’AI in almeno una funzione aziendale, in crescita rispetto al 72% di inizio 2024 e al 55% dell’anno precedente.
E dove la usa? I casi più diffusi includono proprio il supporto ai contenuti per la strategia di marketing: stesura, generazione di idee, presentazioni aziendali.
Accanto a questi numeri, sono ormai molte le iniziative contrarie alla diffusione dell’AI, come le recenti proteste di piazza nel Regno Unito, oppure l’iniziativa di diversi scrittori di pubblicare libri “vuoti” in protesta contro l’impatto dell’AI sulla scrittura creativa.
Ma ci sono anche altre preoccupazioni: secondo Gartner, entro la fine del 2026, l’atrofia delle capacità di pensiero critico causata dall’uso della GenAI spingerà il 50% delle organizzazioni globali a richiedere valutazioni “AI-free” delle competenze.
Per un’impresa che opera sul mercato, da che parte ha senso stare? La risposta più sensata è “nel mezzo”.
L’impresa non può permettersi né ingenuità né paralisi: deve capire come stare dentro la trasformazione tecnologica, senza perderci. Come stare dentro l’epoca in cui vive.
Sui temi di contenuto, l’AI sta avendo un doppio impatto:
- Sui contenuti: di fatto l’intelligenza artificiale è un fattore di industrializzazione ormai inarrestabile. I principali LLM (Chat GPT, Claude, Gemini, Mistral, ecc.) sono ormai in grado di generare testi perfettamente credibili, ben strutturati, coerenti e funzionali agli scopi per cui sono prodotti. E ciò accade a velocità doppia, anche tripla, rispetto alla produzione tradizionale di una persona.
- Su chi i contenuti li crea: l’AI da un lato può essere un generatore di effetti positivi, portando le persone a mettere alla prova gli output grazie all’aiuto della tecnologia, a rifinirli al meglio, a renderli il più efficaci possibile. Dall’altro può anche essere un sonnifero per la creatività: il cervello umano per natura tende al massimo risultato con il minimo sforzo, lo sappiamo, e “avere la pappa pronta” può inaridire i contenuti che vengono pubblicati.
Non è un caso che il celebre dizionario Merriam-Webster abbia eletto “slop” come la parola dell’anno 2025.
“AI slop” è un’espressione sempre più frequente e indica quel ciarpame digitale, quei contenuti tutti uguali, con poco approfondimento, prodotti in massa e in serie proprio perché la tecnologia lo consente.
Letteralmente “slop” si può tradurre con “sbobba”, come il rancio nelle caserme, o “brodaglia”, come quelle zuppe fintamente nutrienti ma che in realtà sono acqua e poco più. Tutto chiarissimo.
Scrivere un testo ben formato, cosa che l’AI fa in modo eccellente, è mettere insieme una sequenza di parole, credibili, ma non è far passare un messaggio.
Il messaggio presuppone un’intenzione, che l’AI slop non ha. Perché l’intenzione, lo vedremo tra poco, è umana.
Cosa rischia chi cede alla brodaglia: le minacce al significato
Ora che abbiamo capito cos’è il capitale semantico di un’azienda, ora che sappiamo cos’è l’AI slop, è evidente il rischio che si corre usando l’intelligenza artificiale in modo sbagliato e acritico: la svalutazione del capitale semantico.
Un’azienda ha una storia, dei valori, esperienze maturate sul campo (che sono sia successi sia fallimenti), know-how interno, capacità di resilienza: un capitale che è distintivo rispetto a quello delle altre aziende.
Ma si tratta di un capitale che si è costruito nel tempo, proprietario, sostanziale all’azienda stessa, non è qualcosa che l’AI può fornire a un certo punto, semplicemente perché si inizia ad usarla.
Può, al massimo, aiutare ad esprimerlo nel modo più efficiente.
Ci sono minacce concrete alla reputazione di un’azienda che possono derivare dall’uso scorretto dell’AI.
Rischi di perdita del capitale semantico, magari per la diffusione di contenuti che poggiano su fake news, errori di interpretazione dell’AI, distorsioni della realtà: costruire una credibilità richiede tempo, vederla incrinarsi ha bisogno di molto poco, bastano le disattenzioni.
Ma anche rischi di improduttività del capitale semantico: quante storie, quanto know-how scorrono sotto traccia in qualunque azienda e non riescono ad arrivare in superficie, ad essere raccontati per come meritano e per come potrebbero valorizzare ancora di più il brand.
C’è la possibilità di usare in modo improprio il capitale semantico dell’azienda: ad esempio diffondendo nei contenuti simboli e messaggi che hanno significati non in linea con quello che l’azienda è, tradendone la natura.
E poi c’è il rischio di deprezzamento del capitale semantico: se i contenuti diventano obsoleti, se non hanno una solidità di intenzione e ragionamento alle spalle, la forza del loro significato cala con il tempo, e finiscono per apparire di scarsa qualità.
Serve, prima ancora che una scrittura critica, una lettura critica dei contenuti che troviamo online: se il linguaggio è generico, senza esempi specifici, con un tono sempre uniforme, di tipo neutro-professionale, senza mai prendere una posizione; se non hanno una voce riconoscibile, senza riferimenti in qualche modo verificabili, allora è probabile che siano contenuti generati dall’AI. Chiunque può accorgersene oggi.
E se il tuo pubblico ha questo sospetto, il danno è già fatto.
La nostra idea, l’idea con cui abbiamo aperto questo articolo, è che ci debba essere una distinzione netta tra ciò che l’intelligenza artificiale fa per noi e ciò che noi non le lasciamo fare.
Cosa non può fare l'AI: i pilastri dell'unicità umana
Fino a poco tempo fa, l’unicità dell’essere umano stava nel sapere unire pensiero e azione. Pensare a qualcosa e realizzarla.
Ora che si è chiuso il momento storico dell’industrializzazione e siamo da anni nella rivoluzione digitale, la nostra unicità non passa più dalla realizzazione, perché le macchine costruiscono, fanno, creano meglio di noi, e più velocemente. Oggi, nell’epoca dell’AI, la nostra unicità arriva da altre caratteristiche.
Ad esempio l’intenzione.
Se pensiamo ai contenuti, perché vogliamo veicolare un messaggio?
Attenzione: “un messaggio”, non un testo, o un’immagine, o un video. Quelli sono termini da piattaforme, usiamo termini da persone.
C’è dietro un perché, un’intenzione, che non insegue solo l’algoritmo, ma un nostro fine.
Un’intenzionalità che è anche legata ad un’emozione nel comunicare qualcosa: tutto questo manca nei contenuti generati dall’AI.
Poi, la responsabilità.
Quando una persona comunica qualcosa costruendo un messaggio, crea un contenuto, crea qualunque cosa, mette in quel messaggio tutto il proprio vissuto di esperienze (ecco che torna il capitale semantico ancora una volta), arrivando all’incrocio tra l’idea, l’intenzione dietro a quel che si dice, la visione che si vuol proporre. C’è un’assunzione di responsabilità in quel che si comunica, nel modo, nelle motivazioni che stanno dietro la creazione.
L’AI non è mai responsabile di ciò che crea: risponde a un prompt, a uno stimolo.
Il gusto è un altro pilastro importantissimo, al punto che forse lo potremmo definire la “nuova intelligenza”, quasi in dialettica con quella artificiale.
Tutti noi sappiamo dire in modo quasi istintivo cosa funziona e cosa no, tutti abbiamo una sensibilità (più o meno allenata, ma c’è) che ci permette di selezionare: è una forma di visione, di cura della selezione. La macchina non ce l’ha: possiamo chiedere a qualunque AI una serie di soluzioni e ci proporrà tutte soluzioni valide, ma solo noi sappiamo quale è “giusta” per una determinata situazione. Questo è il gusto umano.
E infine la sensibilità che significa empatia, capacità di relazione: un’AI non è empatica, un essere umano sì.
Non c’è possibilità di gestire o replicare una relazione da parte di una macchina, per il semplice fatto che le persone sono in grado di cogliere sottotesti e informazioni implicite, mentre l’AI opera solo su ciò che le viene esplicitamente detto.
Queste sono caratteristiche che compongono la cifra umana di ognuno: coltivarla significa differenziarsi in un mondo in cui l’abbassamento delle barriere tecniche tende ad appiattire le nostre differenze con le macchine.
Tornare ad imparare: i nuovi arnesi
Se il fattore differenziante, in un mondo in cui tanto – se non tutto – finisce per assomigliarsi è la nostra cifra umana, coltivarla diventa l’obiettivo più interessante e più alla portata che abbiamo.
Significa, ad esempio, cercare di ampliare o costruirsi nuove skill, nuove capacità, che ci permettano di essere seduti sulla sedia da regista: se le capacità esecutive diventano commodity, dobbiamo puntare ad avere in mano il design, la direzione creativa dei percorsi di senso e contenuto.
Serve diventare designer dei nostri output, quali che siano, della cui esecuzione possiamo poi delegare in parte o in toto alla macchina, in modo che la competenza diventi il gusto.
Del resto siamo noi ad avere la capacità di pensiero fuori dagli schemi, siamo noi quelli che sempre Luciano Floridi chiama “beautiful glitch” della natura, meravigliose imperfezioni.
Di fatto, è un passaggio epocale da una cultura di prodotto a una di processo.
Sicuramente l’abilità che un po’ racchiude il senso complessivo di questa operazione per cui l’AI ci spinge a “tornare ad imparare” è la curatela dei temi, dei contenuti, delle idee.
Non si tratta di giudizio, accumulo di conoscenze, o produzione di qualcosa: si tratta di una capacità che sta a cavallo tra tutti questi aspetti, e che è profondamente relazionale. Significa sviluppare la nostra capacità di creare significato attraverso la selezione, l’accostamento, la contestualizzazione di contenuti, possibilità, opportunità che la macchina non può vedere con le proprie forze.
Perché questo richiede un punto di vista, una postura soggettiva sul mondo, una capacità di assumersi delle responsabilità delle scelte (perché in una selezione qualcosa viene incluso ma altro resta fuori, e conta altrettanto).
La curatela passa attraverso sensibilità fondamentali, come l’avere uno sguardo obliquo per cui non si cerca di seguire criteri stabiliti, percorsi guidati dalla statistica e dalla logica (come l’AI), ma creare nuove griglie di lettura. Oppure la capacità di ascolto e connessione con gli altri: siamo tutti nodi di una gigantesca rete per cui è importante vedere connessioni dove l’AI vede compartimenti; cercare di essere in dialogo mentale con ambiti molto diversi è ciò che fa la curatela.
Fondamentale è poi avere il coraggio delle proprie tesi, proporre una visione del mondo unica, che tenga in conto la sensibilità al contesto: non solo cosa raccontare, cosa mostrare, ma da quale angolo di visione, e con in mente quali destinatari.
Volendo fare un esempio pratico, quando sentiamo parlare di prompt design siamo di fronte a un aspetto di curatela: non è una skill tecnica ma linguistica, relazionale, significa saper verbalizzare correttamente il proprio pensiero, descrivendo al meglio i termini del problema, usando il linguaggio come interfaccia uomo-macchina che restituisca anche le sfumature, i contesti, usandoli per orientare gli output.
Anche approcciare le cose con spirito critico è da sempre una caratteristica di chi cura una selezione: saper distinguere ciò che è vero da ciò che sembra soltanto tale, mantenere un atteggiamento di dubbio costruttivo e permanente sulle fonti che abbiamo a disposizione.
In un mondo come il nostro oggi in cui l’ecosistema dei contenuti e delle informazioni è sovraffollato, il giudizio su un’informazione spesso non viene dato quando è stata verificata, ma quando è plausibile.
Se ci abbandoniamo a questa modalità senza esercitare il beneficio del dubbio smettiamo di pensare, di valutare, di ragionare: smettiamo di avere la giusta distanza dalle cose per poterle valutare.
Non esiste selezione senza pensiero orizzontale e trasversale.
Spesso si sente parlare di contenuti “verticali” su un tema, che lo analizzano in profondità. Niente di sbagliato, in fondo anche questo che stai leggendo lo è.
Nell’affrontare un tema è però sempre più importante mettere la nostra capacità di essere orizzontali e flessibili nel ragionamento, collegando ambiti diversi: aprire alla sperimentazione senza un obiettivo fisso da inseguire ma accettando anche la deviazione, l’errore, il caso che spesso porta con sé scoperte inattese. E questo significa anche avere pazienza: serve tempo per sperimentare con l’AI, serve tempo per mettere la testa sui contenuti che vogliamo pubblicare e, anche se non è semplice ritagliarlo in un ambiente che va sempre più veloce, è ciò che fa la differenza con l’AI slop.
Del resto, perdona l’autoreferenzialità, ma tutti sappiamo che “in montagna si sale con il proprio passo”.
E il proprio passo è spesso anche “sguardo” personale.
In una bella intervista, Jacopo Perfetti fornisce una metafora che spiega perfettamente questa abilità: è un po’ come lo sguardo del fotografo.
Tutti oggi possiamo scattare fotografie di altissima qualità grazie alla tecnologia che abbiamo in tasca. Lo smartphone ha abbassato e democratizzato la soglia tecnica perché siamo tutti fotografi. Tuttavia, solo i professionisti hanno quello sguardo capace di raccontare davvero una storia, che distingue migliaia di foto tutte uguali da immagini uniche.
Questo sguardo, questa capacità è quella da inseguire: saper trovare le narrazioni dove altri trovano soltanto dati, strutture, informazioni asettiche.
MADE IN CIMA e l'AI al servizio del pensiero
Senza slogan, la nostra posizione in termini di AI è molto chiara ed è stata la dichiarazione di apertura di questo articolo: pensiamo che l’AI debba essere utile a creare significato autentico. Nei contenuti di un’azienda, nel suo posizionamento, nella sua visione del mondo da offrire al mercato, nelle sue procedure interne.
Le persone sono “in charge” delle proposte, delle idee, delle scelte, delle direzioni.
L’AI può (non deve necessariamente) essere deputata agli output, alle semplificazioni, all’accorciare la catena.
I punti di frizione devono esserci, all’inizio del processo, nella valutazione umana: questo dà la distanza giusta per prendere decisioni ragionate. Non serve invece frizione più a valle, quando si tratta di produrre output all’interno di un processo di ragionamento ben strutturato. A monte, le frizioni sono tempo utile, a valle sono sprechi.
Nel nostro lavoro quotidiano consideriamo gli output prodotti dall’AI non prodotti finiti, ma spunti per un ragionamento che prosegue, continua, potenzialmente si dilata ancora fino a che il nostro giudizio, il nostro punto di vista (umanissimi entrambi) non pensano di essere arrivati alla migliore elaborazione possibile.
Non la migliore in assoluto, attenzione, la migliore possibile: perché considerare i vari aspetti del contesto è ancora una volta una prerogativa umana.
Utilizziamo l’AI per pensare di più, non per pensare di meno.
Siamo convinti che il rischio oggi non siano i professionisti che usano l’AI, ma quelli che lo fanno senza aggiungere nulla del proprio capitale semantico, come persone e in quanto aziende.
Oggi un imprenditore non dovrebbe chiedere ai propri partner se usano l’AI o meno ma come la usano: in che punto del processo? Con quale finalità? Con che autonomia decisionale, con quali controlli sull’output?
Essere trasparenti sull’uso che si fa dell’AI pensiamo che sia prima di tutto una strategia di posizionamento e di protezione di qualunque brand, compreso il nostro.
Come tradurre in pratica: l'AI policy
Serve l’ennesima policy, dopo la privacy, dopo i cookie, dopo i termini e condizioni d’acquisto dei prodotti e dei servizi?
Forse annoia il solo pensiero, ma va considerato che non è un obbligo da soddisfare.
È prima di tutto una strategia di posizionamento: un documento articolato a piacere e con la forma che preferiamo che dice, sostanzialmente, come usiamo l’intelligenza artificiale.
È strategia, è comunicazione.
E serve a diversi aspetti: all’interno dell’azienda è in grado di proporre e fissare delle scelte consapevoli e condivise, all’esterno diventa una base di relazione importante e matura con partner e fornitori e, al tempo stesso dimostra consapevolezza e maturità sul tema.
Siamo ancora alle prime fasi di questa conversazione, specialmente in Italia, e arrivarci tra i primi è di per sé un posizionamento.
Idealmente quali dovrebbero essere i contenuti portanti di questa policy?
Prima di tutto un indicatore di aggiornamento della policy: ogni quanto avviene, qual è il ciclo temporale di revisione. Perché in un mondo come quello dell’AI le grandezze temporali dei cambiamenti sono le settimane, non gli anni.
Poi il perché la si ritiene utile, formulando una dichiarazione di principio sul proprio rapporto aziendale con l’AI. Occorre raccontare il dove interviene l’intelligenza artificiale all’interno del processo creativo e organizzativo dell’azienda: mappare l’utilizzo che se ne fa, i punti di intervento.
Infine non può mancare un protocollo di qualità, cioè una definizione precisa e responsabile di come vengono valutati gli output dell’AI in azienda, come questo viene fatto e da parte di chi, con quali competenze.
La questione che attraversa tutto ciò di cui abbiamo parlato è semplice da formulare, meno da mettere in pratica: in un mondo in cui tutti possono produrre contenuti, cosa rende i tuoi riconoscibili?
La risposta non è nella tecnologia che usi, ma nel significato che ci metti dentro.
L’AI policy è uno strumento, il capitale semantico è la materia prima, ma il punto di partenza è sempre lo stesso: fermarsi a pensare prima di pubblicare, chiedersi se quel contenuto racconta davvero chi sei, e avere il coraggio di scartare tutto ciò che non lo fa.
Se questo articolo ti ha fatto venire qualche domanda su come la tua azienda sta usando l’intelligenza artificiale nella propria comunicazione, è esattamente il risultato che speravamo.
Le domande giuste sono il primo passo, e possiamo parlarne insieme. Volentieri.