Un semplice test visivo può smascherare un annuncio creato con l’AI. Ma per la piattaforma che lo distribuisce, la stessa pubblicità può restare invisibile. È il paradosso emerso dal caso raccontato da The Verge su TikTok: la trasparenza degli annunci generati o assistiti da intelligenza artificiale è ancora fragile, spesso incoerente, e in alcuni casi decisamente insufficiente.

Il tema non riguarda solo la precisione di un’etichetta. Tocca un punto più profondo: quanto possiamo fidarci delle disclosure pubblicitarie quando l’AI entra nella produzione dei contenuti commerciali? E soprattutto, chi è davvero responsabile del riconoscimento — il brand, la piattaforma o l’algoritmo che analizza il contenuto?

Il caso TikTok: quando la trasparenza non basta

Secondo il pezzo di The Verge, il problema nasce dalla difficoltà di TikTok nel identificare in modo affidabile gli annunci che hanno avuto un ruolo dell’AI nella loro creazione. In teoria, la piattaforma dispone di sistemi per etichettare i contenuti sponsorizzati e, in alcuni casi, anche quelli prodotti con supporto dell’intelligenza artificiale. In pratica, però, le disclosure appaiono incomplete, poco uniformi o assenti proprio nei casi che dovrebbero essere più sensibili.

Il test messo in evidenza dal giornalista è interessante perché ribalta il punto di vista: se un osservatore umano riesce a intuire che un annuncio è generato dall’AI, perché la piattaforma non riesce a farlo? La risposta, con tutta probabilità, sta nella combinazione di tre fattori: i modelli di rilevazione non sono perfetti, le indicazioni fornite dai brand possono essere parziali e le regole di classificazione cambiano da piattaforma a piattaforma.

Il risultato è un ecosistema in cui la trasparenza esiste solo sulla carta, ma non sempre nell’esperienza reale dell’utente.

Perché gli annunci AI sono un problema più grande di quanto sembri

All’apparenza, il tema potrebbe sembrare marginale: se un annuncio è efficace, che differenza fa sapere se è stato ritoccato o generato da un modello? In realtà, la differenza è sostanziale. Gli annunci AI toccano almeno tre aree critiche:

  • fiducia del pubblico, perché gli utenti vogliono sapere chi parla e con quali strumenti;
  • conformità normativa, perché la pubblicità deve rispettare regole su trasparenza e riconoscibilità;
  • reputazione del brand, perché una disclosure mancante può trasformarsi in un problema di immagine.

In un momento in cui i contenuti sintetici diventano sempre più realistici, il confine tra creatività assistita e comunicazione fuorviante si assottiglia. Non si tratta solo di deepfake o volti artificiali: anche un semplice script, un montaggio automatizzato o un visual generato da AI possono alterare la percezione del messaggio pubblicitario.

Ed è qui che la questione smette di essere tecnica e diventa editoriale, commerciale e regolatoria insieme.

Il caso Samsung e il precedente che pesa

Nel riferimento citato da The Verge entra in gioco anche Samsung, segnale che il problema non riguarda un singolo inserzionista ma un’intera filiera. I grandi brand sperimentano con l’AI per produrre campagne più rapide, più personalizzate e spesso meno costose. Ma se le disclosure restano vaghe, il rischio è che l’efficienza creativa si traduca in opacità.

Samsung, come altri marchi globali, rappresenta un caso utile perché mostra quanto sia delicato il rapporto tra innovazione e policy. Le aziende vogliono sfruttare l’AI per migliorare i flussi pubblicitari, ma al tempo stesso devono evitare che l’automazione comprometta la credibilità del messaggio. Quando la piattaforma non identifica correttamente il contenuto, la responsabilità può ricadere sul brand, anche se il problema nasce a monte nel sistema di distribuzione.

In altre parole: se il controllo è incompleto, anche la conformità diventa incompleta.

Le fragilità del sistema di disclosure

Il nodo più interessante, però, non è solo il singolo errore. È la fragilità strutturale del sistema di disclosure attuale. Le etichette che dovrebbero aiutare gli utenti a capire se un contenuto è stato prodotto o assistito da AI spesso si basano su segnali incompleti: dichiarazioni del creator, metadati, classificazioni automatiche e policy interne. Ma nessuno di questi elementi, da solo, è sufficiente.

Il problema è che la catena di verifica è troppo lunga e troppo dipendente dalla collaborazione tra soggetti diversi. Il brand deve dichiarare. La piattaforma deve controllare. L’algoritmo deve riconoscere. L’utente, alla fine, deve fidarsi.

Se uno solo di questi passaggi fallisce, la trasparenza si spezza.

Per questo il caso TikTok è rilevante oltre TikTok stesso. È un segnale per tutta l’industria: non basta esporre una label se il sistema che la alimenta non è robusto.

Cosa cambia per marketer, piattaforme e regolatori

Per i professionisti del marketing, la lezione è chiara. L’AI non può essere trattata come un semplice acceleratore di produzione. Va gestita come una variabile di compliance. Questo significa definire processi interni per tracciare cosa è stato generato, cosa è stato modificato e cosa è stato semplicemente assistito da modelli generativi.

Le aziende più mature stanno già andando in questa direzione, con flussi di approvazione che includono controlli su visual, copy, voiceover e materiali adattati per piattaforme diverse. Ma il caso TikTok mostra che il controllo interno non basta se le piattaforme non offrono strumenti di identificazione chiari e coerenti.

Per i regolatori, invece, la domanda è ancora più urgente: quali standard servono per rendere obbligatoria una disclosure leggibile, verificabile e uniforme? Oggi la frammentazione è uno dei problemi principali. Ogni piattaforma applica policy differenti, con livelli diversi di dettaglio e di enforcement. Il risultato è un mercato in cui la trasparenza dipende più dalla buona volontà che da una regola condivisa.

Il vero rischio: perdere la fiducia prima ancora della frode

Il punto più sottile, e forse più importante, è che il danno alla fiducia può arrivare prima ancora che emerga un abuso evidente. Non serve una manipolazione palese per indebolire il rapporto tra utente e piattaforma. Basta che le etichette siano percepite come inconsistenti, opache o facoltative.

Nel lungo periodo, questo è un problema per tutti: per TikTok, che deve difendere la credibilità del suo ecosistema pubblicitario; per i brand, che rischiano di vedere associata la loro comunicazione a un’idea di opacità; e per gli utenti, che perdono un riferimento utile per valutare ciò che stanno guardando.

La questione, quindi, non è se l’AI debba entrare nella pubblicità. Lo ha già fatto. La vera domanda è se l’industria sarà in grado di rendere visibile l’uso dell’AI senza trasformarlo in un dettaglio nascosto o, peggio, in un trucco di produzione.

Una lezione che va oltre TikTok

Il caso raccontato da The Verge arriva in un momento cruciale. Le piattaforme social stanno aumentando la propria dipendenza da strumenti generativi per creare, adattare e distribuire contenuti commerciali. I brand, dal canto loro, cercano velocità e scalabilità. In mezzo ci sono gli utenti, che chiedono una cosa semplice: sapere cosa stanno vedendo.

Se la piattaforma non riesce a distinguere in modo affidabile un annuncio AI-generated da uno tradizionale, il problema non è soltanto tecnologico. È sistemico. E richiede una risposta che unisca policy più chiare, controlli più forti e standard più condivisi.

In questa fase, la sfida non è bannare l’AI dalla pubblicità. È fare in modo che la sua presenza sia trasparente, leggibile e verificabile. Perché nel momento in cui la creatività sintetica diventa normale, la fiducia diventa il vero vantaggio competitivo.

Categorized in:

Breaking AI,

Last Update: Marzo 29, 2026