Intelligenza artificiale e comunicazione d’impresa: il contributo dei comunicatori per una governance condivisa

[il testo è stato rielaborato, in collaborazione con ChatGPT, dal discorso tenuto ieri 20 marzo 2026 al convegno RIVOLUZIONE QUATTROPUNTOZERO, organizzato dai LIONS di Bologna]

Come l’AI sta cambiando il modo in cui si formano le opinioni e perché fiducia, trasparenza e qualità delle fonti diventano decisive

Oggi sta succedendo qualcosa di radicale, ma quasi invisibile. Sempre più persone non cercano più informazioni su un’organizzazione. Non leggono il sito, non confrontano fonti.

Chiedono a un’intelligenza artificiale:
“Cosa ne pensi di questa organizzazione?”

E si fidano della risposta. Non è solo un cambio tecnologico. È un cambio di paradigma.

Perché non sta cambiando solo come comunichiamo. Sta cambiando come si formano le opinioni.

E quindi, inevitabilmente, come si costruisce la reputazione. Sempre meno basata su ciò che un’organizzazione dice o fa direttamente. Sempre più basata su ciò che un sistema sintetizza.

Una reputazione (o più reputazioni sarebbe meglio dire):

  • più volatile
  • più probabilistica
  • meno critica e meno duratura

Assistiamo a una delega che funziona più o meno così per una scorciatoia molto comprensibile. Infatti facciamo meno fatica a chiedere un’opinione all’intelligenza generativa, rispetto al doverci creare una opinione da soli, informandoci e dovendo applicare uno sforzo minimo intellettuale.

Ma per capire davvero cosa sta succedendo, dobbiamo chiarire una cosa. La comunicazione non è (solo) contenuto.

È una funzione che in tutto il mondo, nelle principali organizzazioni, si occupa di una serie di attività chiave:

  • ascolta gli stakeholder e i pubblici
  • interpreta le loro esigenze e i loro discorsi
  • porta questa voce all’interno dell’azienda e aiuta a prendere decisioni
  • solo alla fine dovrebbe costruire una comunicazione responsabile, basata su narrative credibili, con l’obiettivo di connettere gli stakeholder, migliorare il rapporto di fiducia e migliorare la reputazione dell’organizzazione

È, prima di tutto, infrastruttura di relazione e fiducia. E oggi questa infrastruttura è sotto pressione.

Viviamo in un contesto in cui la fiducia cala — nelle istituzioni, nei media, nelle organizzazioni. Se un tempo istituzioni, media e NGO erano ritenuti credibili, oggi il business ottiene più credibilità e la piramide si è rovesciata. Ma ciò rappresenta un pericolo, in primis per i comunicatori responsabili.
Lo evidenzia chiaramente l’Edelman Trust Barometer, che da oltre venticinque anni misura il livello di fiducia a livello globale — mentre cresce un uso sempre più propagandistico della comunicazione.

Il risultato è una crisi delle relazioni, prima ancora che dell’informazione. Guardiamoci attorno.

In questo scenario, l’intelligenza artificiale non arriva in modo neutro.

Amplifica.

Amplifica la velocità.
Amplifica la produzione.
Amplifica la diffusione.

Ma soprattutto amplifica una cosa più sottile: l’autorevolezza apparente.

Il rischio non è solo la fake news.

È la fake credibility: contenuti plausibili, coerenti, ben costruiti… ma non necessariamente veri.

E quando questi contenuti diventano la base delle risposte generate dall’AI, il problema cambia scala.

Perché le intelligenze artificiali si nutrono di contenuti e restituiscono sintesi che diventano verità percepite.

Se le fonti sono deboli, opache o distorte, anche la risposta lo sarà. E quindi lo sarà la reputazione.

Per questo il punto non è “usare l’intelligenza artificiale”.

Il punto è governarla.

Come comunità professionale globale, abbiamo provato a fissare alcuni principi nel Venice Pledge, promosso dalla Global Alliance for PR and Communication Management.

Non è un documento sulla tecnologia.
È un documento sulla responsabilità.

Dice che:

  • l’etica deve venire prima
  • la governance deve restare umana
  • la trasparenza è un dovere
  • la responsabilità non è delegabile

E soprattutto afferma un principio chiave:
👉 l’AI deve supportare, non sostituire, il giudizio umano

Questo cambia tutto.

Perché significa che la responsabilità non è dell’algoritmo.
È nostra.


E allora la parola centrale diventa una: governance.

Non basta adottare strumenti.

Serve costruire sistemi che garantiscano:

  • trasparenza delle fonti
  • qualità dei dati
  • supervisione reale
  • competenze diffuse

Perché oggi il linguaggio è plasmato dai dati.
E i dati incorporano bias.
E i bias diventano narrazione.


C’è poi un tema che non possiamo più evitare: il rapporto con le piattaforme.

Non interagiamo con entità astratte. Interagiamo con organizzazioni private che gestiscono infrastrutture decisive per la formazione dell’opinione.

E quindi il punto non è solo adattarsi. È anche negoziare.

Costruire un rapporto più consapevole, più equilibrato.


Nel settore della salute, tutto questo è già evidente.

Qui la qualità dell’informazione non è un tema teorico. Ha conseguenze reali.

Per questo iniziative come “A dire il vero” nascono non per comunicare meglio un’organizzazione, ma per affrontare un problema più grande: la qualità dell’informazione medico-scientifica.

Coinvolgendo giornalisti, creator, fact-checker, comunità professionali. Con un obiettivo semplice e radicale: aiutare a distinguere ciò che è vero da ciò che non lo è. ma lavorando insieme e costruendo alleanze. Le stesse che dobbiamo creare per negoziare con le piattaforme digitali. Noi comunicatori ci siamo: con Global Alliance lo stiamo facendo nella Call per una comunicazione Responsabile come 18° obiettivo dell’agenda 2030 dell’ONU. Vorremmo poter collaborare con Istituzioni, giornalisti, le figure nuove dell’informazione digitale, ma anche gli altri professionisti della conoscenza.


E quindi torniamo al punto iniziale.

Se le persone chiedono a una macchina cosa pensare di un’organizzazione, allora la comunicazione non può più limitarsi a produrre contenuti. Deve costruire le condizioni perché quelle risposte siano fondate.

Perché nell’era dell’intelligenza artificiale:

Non vince chi comunica di più vince chi garantisce la qualità di ciò che verrà sintetizzato

E, nel lungo periodo, chi si assume la responsabilità di ricostruire fiducia

Perché oggi non stiamo più scrivendo messaggi.
Stiamo scrivendo le fonti da cui le macchine impareranno cosa è vero.

Lascia un commento