Quando devi dichiarare che un contenuto è AI-generated?
La domanda utile non è se l’intelligenza artificiale sia già dentro la produzione dei contenuti. Lo è. La domanda seria è un’altra: quando il silenzio smette di essere una scelta stilistica e diventa un’omissione rilevante. In Europa, il quadro sta prendendo una forma precisa. Le regole di trasparenza dell’AI Act che riguardano deepfake e alcuni testi generati per informare il pubblico diventano applicabili dal 2 agosto 2026. Ma il punto, per brand, agenzie e publisher, non nasce quel giorno. Nasce molto prima, nel momento in cui il pubblico può essere indotto a credere autentico, umano o documentale ciò che autentico, umano o documentale non è.
Perché la trasparenza non è più solo una scelta etica
Per anni la disclosure è stata raccontata come una virtù reputazionale. Oggi è una materia di fiducia operativa. Se un contenuto sintetico altera la percezione di chi lo guarda, lo ascolta o lo legge, la trasparenza smette di essere un gesto di buona educazione e diventa uno strumento per ridurre inganno, impersonazione, manipolazione e confusione informativa. È questo il senso delle disposizioni europee sull’AI: non moralizzare la creatività, ma segnalare quando l’artificialità del contenuto è un’informazione che cambia il modo corretto di interpretarlo.
Per questo la trasparenza non va pensata come una targhetta da attaccare in fondo alla pagina. Va considerata parte del patto editoriale o commerciale. Se un magazine pubblica un ritratto volutamente artificiale in un contesto evidentemente creativo, il tema è diverso rispetto a una campagna che simula una testimonianza reale, o a un contenuto informativo che sembra scritto da una redazione ma è stato prodotto da un sistema generativo senza adeguato controllo umano. La differenza non è tecnica. È interpretativa. Cambia ciò che il pubblico crede di avere davanti.
In quali casi la disclosure è davvero necessaria
La tentazione più diffusa è trattare tutto allo stesso modo: o si dichiara sempre, o non si dichiara mai. Sono due scorciatoie sbagliate. Il criterio più solido, anche fuori dal perimetro europeo, è chiedersi se l’assenza di disclosure possa risultare fuorviante per il destinatario e se l’eventuale disclosure chiarisca davvero il messaggio, invece di contraddirlo a posteriori.
In pratica, la disclosure è difficilmente eludibile in almeno quattro scenari. Primo: quando il contenuto costruisce un’apparenza di autenticità che incide sulla fiducia, come un volto realistico inesistente, una voce sintetica che sembra umana, una scena che simula un fatto. Secondo: quando c’è una promessa implicita di veridicità, per esempio nell’informazione, nella testimonianza, nella prova prodotto, nel prima/dopo, nella recensione o nella comparativa. Terzo: quando si interviene sull’identità di una persona, viva o riconoscibile, o si crea un surrogato credibile della sua presenza. Quarto: quando l’uso dell’AI non è percepibile e il pubblico attribuirebbe a quel contenuto una provenienza, un metodo o un grado di verifica diverso da quello reale.
Per i publisher c’è poi un punto specifico da non sottovalutare. La Commissione europea sta lavorando su un impianto in cui i testi generati o manipolati con AI e pubblicati per informare il pubblico su questioni di interesse generale richiedono disclosure, salvo i casi in cui il contenuto sia stato sottoposto a revisione umana ed esista una responsabilità editoriale. Questo passaggio è cruciale perché sposta il discorso dal tool usato al presidio effettivo del processo. Non basta dire “c’è un editor”. Conta che il controllo sia reale, assumibile e coerente con la firma editoriale.
Contenuto creato, ritoccato o potenziato: le differenze che contano
Il lessico qui fa danni. Dire genericamente “contenuto realizzato con AI” serve poco, perché mette nello stesso cassetto operazioni molto diverse. E invece la differenza conta sia per il rischio giuridico sia per la percezione pubblica.
Un contenuto creato è un contenuto la cui materia principale nasce dal modello: volto, scena, voce, ambientazione, testo, performance. Un contenuto ritoccato è un contenuto preesistente che viene manipolato in modo sostanziale: si cambia un’espressione, si sposta una persona, si modifica il contesto, si elimina o si aggiunge un elemento che altera il senso dell’immagine o della clip. Un contenuto potenziato, invece, è spesso un contenuto assistito: pulizia, upscaling, adattamento colore, rimozione rumore, correzione tecnica, supporto alla bozza o alla traduzione, senza spostare davvero il significato dell’opera. Questa distinzione non è cosmetica. Serve a capire quando stai migliorando un contenuto e quando ne stai riscrivendo la natura.
Per un brand la regola pratica è semplice. Se l’intervento cambia il livello di realtà percepita, la provenienza del contenuto o il rapporto tra rappresentazione e fatto, la disclosure sale di importanza. Se invece l’intervento resta tecnico e non altera il patto interpretativo, la necessità si riduce. Un conto è correggere una dominante cromatica su un packshot. Un altro è generare una modella, una location e una situazione d’uso che il pubblico leggerà come fotografia documentale. Nel primo caso conta la correttezza del risultato. Nel secondo conta anche dichiarare il metodo.
Deepfake, avatar, digital twin e immagini commerciali: cosa cambia
La parola deepfake viene spesso usata come sinonimo di qualunque contenuto sintetico realistico. Non è così. Il punto centrale è la somiglianza credibile con persone, oggetti, luoghi, entità o eventi esistenti, tale da far apparire il contenuto autentico o veritiero. Qui il problema non è la mera artificiosità. È la falsa apparenza di autenticità.
Un avatar inventato per un brand, se è chiaramente presentato come personaggio virtuale, pone un problema diverso da un digital twin costruito per replicare un testimonial, un founder o un professionista reale. Nel primo caso la questione è soprattutto di chiarezza narrativa e coerenza con il tone of voice. Nel secondo entrano in gioco identità, consenso, affidamento e possibile impersonazione.
Le immagini commerciali meritano un capitolo a parte. Una campagna fashion che usa scene sintetiche, modelle artificiali o ambienti impossibili non è automaticamente problematica. Diventa problematica quando la costruzione sintetica tocca un punto sensibile della promessa: performance del prodotto, testimonianza, presenza reale del soggetto, prova concreta, risultato verificabile. Se vendi atmosfera, puoi giocare molto. Se vendi prova, il margine si restringe parecchio. È qui che molte aziende sbagliano: trattano come “creatività” ciò che il consumatore legge come evidenza.
Come dichiarare l’uso dell’AI senza indebolire il brand
Il timore di molti brand è sempre lo stesso: se dichiaro l’AI, perdo valore percepito. In realtà accade spesso il contrario. Un marchio si indebolisce quando sembra nascondere il processo, non quando lo governa con precisione. La disclosure efficace non è una confessione. È una didascalia intelligente. Deve essere chiara, proporzionata, leggibile e collocata nel punto in cui l’utente forma davvero il proprio giudizio, non sepolta nel footer o dietro un link.
La formula giusta dipende dal caso. “Immagine creata con strumenti generativi” funziona quando la scena è integralmente sintetica. “Immagine fotografica con elementi generati o modificati digitalmente” è più corretta quando esiste una base reale ma l’intervento è sostanziale. “Contenuto redatto con supporto AI e revisionato dalla redazione” ha senso dove esiste davvero una filiera editoriale presidiata. La parola decisiva, qui, è verità. Una disclosure generica che protegge il marketing ma non spiega il processo aiuta poco.
Va tenuta distinta, inoltre, la disclosure visibile per il pubblico dalla marcatura tecnica del contenuto. L’AI Act europeo lavora su entrambe: da un lato la rilevabilità machine-readable degli output da parte dei provider, dall’altro la disclosure visibile in certi casi da parte di chi distribuisce o utilizza il contenuto. Pensare che basti un watermark invisibile, o al contrario solo una nota testuale, è una semplificazione. La filiera della fiducia richiede più livelli.
Gli errori più comuni nella comunicazione dei contenuti sintetici
Il primo errore è la formula totalizzante: “alcuni contenuti potrebbero essere stati creati con AI”. Non informa nessuno, non distingue nulla, e spesso segnala solo prudenza legale senza reale trasparenza. Il secondo è l’avvertenza contraddittoria: headline, visual o voice-over costruiscono un effetto di autenticità, poi una micro-nota prova a sterilizzarlo.
Il terzo errore è confondere la tecnica con la sostanza. Non serve dichiarare ogni automazione del flusso creativo come se fosse una confessione di impurità. Serve dichiarare ciò che modifica il giudizio del pubblico. Il quarto è delegare tutto al reparto creativo o, al contrario, tutto al legale. La trasparenza sui contenuti sintetici è un punto di intersezione tra creatività, compliance, editoria, media buying, PR e customer trust. Se resta in una sola stanza, quasi sempre esce male.
Il quinto errore è pensare che il problema riguardi soltanto le immagini. In Europa il tema investe anche il testo pubblicato per informare il pubblico su temi di interesse generale, e le discussioni più recenti stanno già affrontando tassonomie, proporzionalità e responsabilità lungo la catena di distribuzione. Questo significa che il tema non appartiene solo ai team visual. Riguarda redazioni, uffici stampa, editor, social team e chiunque pubblichi contenuti che possano essere letti come informazione affidabile.
Una checklist pratica per agenzie, brand e publisher
Prima di pubblicare, sette domande bastano a evitare molti problemi.
Il contenuto sembra reale, umano o documentale?
Se sì, l’assenza di disclosure pesa di più.
L’AI ha creato il contenuto o lo ha solo assistito tecnicamente?
Non è la stessa cosa.
L’intervento modifica il significato, la prova o la promessa del messaggio?
Se la risposta è sì, serve maggiore chiarezza.
C’è il volto, la voce o l’identità riconoscibile di qualcuno, o un loro surrogato credibile?
Qui il rischio cresce rapidamente.
Il contenuto informa il pubblico su temi di interesse generale?
In ambito editoriale il presidio umano non può essere solo nominale.
La disclosure si vede davvero nel punto in cui il pubblico forma il giudizio?
Un link nascosto o una nota ambigua non bastano.
Chi si assume la responsabilità finale del contenuto?
Se non esiste una risposta chiara, il processo non è pronto.
La questione, in fondo, non è difendersi dall’AI. È difendere il significato della firma. Nei prossimi anni non verrà premiato chi produce più immagini, più clip o più testi. Verrà premiato chi saprà dire con esattezza che cosa ha creato, che cosa ha manipolato, che cosa ha soltanto assistito, e perché il pubblico può fidarsi comunque. La trasparenza non abbassa il valore di un contenuto. Lo rende sostenibile.
Fonti
Commissione europea e AI Act
AI Act | Shaping Europe’s digital future
Quadro generale sull’AI Act e sul contesto normativo europeo.Navigating the AI Act | Shaping Europe’s digital future
Chiarimenti ufficiali sugli obblighi di trasparenza, i deepfake, i testi generati per informare il pubblico e le eccezioni legate a revisione umana e responsabilità editoriale.Article 113: Entry into force and application | AI Act Service Desk
Calendario ufficiale di applicazione dell’AI Act, inclusa la data del 2 agosto 2026.Commission publishes second draft of Code of Practice on Marking and Labelling of AI-generated content
Elementi preparatori su marcatura, labeling, rilevabilità dei contenuti generati e disciplina applicativa dell’articolo 50.Code of Practice on marking and labelling of AI-generated content
Pagina quadro sul codice di pratica relativo a marking e labelling dei contenuti AI-generated.Working Groups advance discussions on transparency obligations under Article 50 of the AI Act
Distinzioni tra AI-generated, AI-assisted, responsabilità editoriale, proporzionalità della disclosure e responsabilità lungo la filiera.
Advertising e tutela del consumatore
Disclosure of AI in Advertising: Striking the Balance Between Creativity and Responsibility
Indicazioni utili sul rapporto tra disclosure, chiarezza del messaggio e rischio di inganno nella comunicazione pubblicitaria.FTC Announces Crackdown on Deceptive AI Claims and Schemes
Richiamo all’applicazione del diritto esistente contro impersonazione, inganno e pratiche scorrette basate su AI.