Editoriale di: Gabriele Vinciguerra
C’è stato un tempo in cui un artista vendeva un disco, una fotografia, un concerto, una campagna pubblicitaria. Poi è arrivata l’epoca in cui l’artista ha iniziato a vendere la propria immagine. Oggi siamo entrati in una zona più ambigua, più profonda, più scivolosa. Non si vende più soltanto ciò che si fa. Si comincia a vendere ciò che si è, o almeno ciò che il mercato riesce a estrarre da ciò che siamo.
Il volto. La voce. La postura. Il gesto. La mimica. Il modo di sorridere, tacere, guardare, reagire. Tutto ciò che una volta apparteneva alla presenza di una persona oggi può diventare dato, modello, licenza, simulazione, prodotto.
Il caso Khaby Lame è significativo non perché riguardi un creator famoso, ma perché mostra con chiarezza la direzione in cui stiamo andando. La società Step Distinctive Limited, legata alla gestione del suo brand e dei suoi diritti commerciali, è stata acquisita da Rich Sparkle Holdings in un’operazione valutata fino a 975 milioni di dollari, pagata in azioni. Diverse fonti hanno collegato l’accordo anche allo sviluppo di un suo gemello digitale basato su dati biometrici, voce e comportamenti. Fortune Italia ha precisato un punto fondamentale: non si tratta di 975 milioni incassati in contanti, ma di un’operazione in azioni. Questo dettaglio è importante, perché evita la leggenda e ci riporta ai fatti. Ma non cambia la sostanza culturale della questione. Qui non siamo davanti a una semplice sponsorizzazione. Siamo davanti alla trasformazione dell’identità in infrastruttura economica.
La differenza è decisiva.
Un conto è vendere la propria immagine per una campagna. Lo hanno fatto attori, sportivi, musicisti, modelle, influencer. È il mercato classico della celebrità. La persona presta il proprio volto a un prodotto, riceve un compenso, appare in uno spazio definito. L’uso è limitato, riconoscibile, circoscritto.
Un altro conto è concedere la propria immagine a un sistema capace di riprodurla. Qui il volto non accompagna più il prodotto. Diventa il prodotto. La voce non interpreta più un messaggio. Può generarlo. Il gesto non appartiene più solo a un corpo. Può essere replicato da una macchina. È questo il passaggio che cambia tutto.
Meta lo aveva già sperimentato nel 2023 con chatbot AI associati alle sembianze di celebrità come Snoop Dogg, Kendall Jenner, Tom Brady, MrBeast, Paris Hilton e altri. Variety documentò il lancio di questi personaggi digitali, mentre Business Insider ha poi riportato che alcuni accordi potevano arrivare fino a 5 milioni di dollari per poche ore di lavoro in studio. Il progetto è stato successivamente chiuso, ma il tentativo resta indicativo. Il valore non era più solo nella popolarità della persona. Era nella sua possibilità di diventare interfaccia.
Anche il caso James Earl Jones, voce storica di Darth Vader, appartiene a questo nuovo territorio. Nel 2022 l’attore ha autorizzato l’uso di registrazioni d’archivio della propria voce per permettere a Respeecher e Skywalker Sound di ricreare vocalmente il personaggio attraverso l’intelligenza artificiale. È un caso diverso da quello degli influencer, perché riguarda la continuità artistica di un personaggio e una scelta avvenuta nella fase finale di una carriera. Ma resta un precedente enorme. La voce, una delle parti più intime dell’identità umana, può essere conservata, modellata, riattivata.
Poi c’è una frontiera ancora più disturbante, quella della simulazione relazionale. Caryn Marjorie, influencer americana, ha creato CarynAI, una versione chatbot di sé stessa venduta ai fan come fidanzata virtuale a pagamento. Repubblica ha scritto che il sistema era stato addestrato su circa 2.000 ore di video e che l’accesso costava 1 dollaro al minuto. Qui non si vende soltanto un volto. Si vende una presenza affettiva simulata. Si monetizza l’illusione di relazione.
Questi casi non sono identici. Ed è proprio qui che l’analisi deve restare lucida.
C’è chi concede la propria immagine per pubblicità tradizionale. C’è chi autorizza un avatar. C’è chi permette la clonazione della voce. C’è chi accetta un gemello digitale. C’è chi costruisce una versione artificiale di sé per parlare con i fan. C’è chi, dopo la morte, continua a essere usato attraverso accordi con eredi, archivi e aziende.
Mettere tutto nello stesso sacco sarebbe comodo, ma sbagliato. Però una linea comune esiste. Il mercato non si accontenta più della prestazione umana. Vuole la sua replica.
Da un punto di vista psico sociale, questo fenomeno colpisce il cuore dell’identità contemporanea. Noi non siamo mai stati soltanto ciò che siamo interiormente. Siamo anche ciò che mostriamo agli altri, ciò che gli altri riconoscono in noi, ciò che impariamo a performare nei contesti sociali. Erving Goffman aveva già descritto la vita sociale come una scena in cui ciascuno presenta sé stesso agli altri attraverso ruoli, segnali, gesti e impressioni. Oggi quella scena non è più soltanto sociale. È tecnologica, economica, permanente.
La differenza è che prima la rappresentazione di sé richiedeva un corpo presente. Oggi può bastare un archivio.
Questo produce una frattura profonda tra identità reale, identità percepita e Io ideale. L’Io reale è la persona concreta, con limiti, contraddizioni, stanchezze, paure, cambiamenti. L’Io ideale è ciò che vorremmo essere, o ciò che vorremmo che gli altri vedessero in noi. I social hanno già amplificato questa distanza, spingendo milioni di persone a costruire una versione più desiderabile, più forte, più bella, più coerente, più vendibile di sé.
L’AI aggiunge un passaggio ulteriore. Non si limita a filtrare l’Io ideale. Può produrlo al posto nostro.
Un avatar non invecchia come noi. Non ha cedimenti emotivi. Non dorme. Non si ammala. Non cambia idea se non viene aggiornato. Non ha bisogno di elaborare una crisi. Non entra in conflitto con la propria coscienza. Può essere sempre disponibile, sempre performante, sempre allineato alla domanda del mercato.
Il rischio è che l’Io ideale diventi più redditizio dell’Io reale. E quando la versione artificiale di una persona diventa economicamente più utile della persona stessa, la società entra in un territorio inquietante.
Non è solo un problema di privacy. È un problema di dignità.
La domanda non è più soltanto: chi possiede i miei dati? La domanda diventa: chi può continuare a farmi esistere senza di me?
Le leggi stanno cercando di inseguire il fenomeno. L’AI Act europeo introduce obblighi di trasparenza e un quadro normativo sui rischi dell’intelligenza artificiale. Negli Stati Uniti, il Tennessee ha approvato l’ELVIS Act per proteggere voce e immagine degli artisti dall’uso non autorizzato dell’AI. La California ha firmato leggi per tutelare i performer dalle repliche digitali, anche postume. SAG AFTRA ha ottenuto tutele contrattuali specifiche sui digital replicas dopo le mobilitazioni degli attori. Questo dimostra che il problema non è teorico. È già economico, giuridico, lavorativo.
Ma la legge arriva sempre dopo. Prima arriva il mercato. E il mercato, quando vede valore, non si ferma a chiedere che cosa quella cosa significhi per l’essere umano.
La società futura potrebbe dividersi tra chi possiede un’identità monetizzabile e chi resta invisibile. Da una parte i volti replicabili, le voci sintetizzabili, i corpi trasformati in asset. Dall’altra milioni di persone comuni, educate a desiderare la stessa cosa, ma senza avere abbastanza valore simbolico per venderla davvero.
Il paradosso è feroce. Tutti saranno spinti a costruire un’identità pubblica. Pochissimi potranno venderla. Molti finiranno per consumare le identità artificiali degli altri, scambiando la replica per presenza, il contenuto per relazione, la simulazione per intimità.
In questo scenario, il denaro diventa il grande autorizzatore morale. Se un’identità vale milioni, allora sembra automaticamente legittimo venderla. Ma il prezzo non coincide con il significato. Una cosa può valere tantissimo sul mercato e restare devastante sul piano umano.
Non si tratta di fare moralismo. Nessuno può giudicare con leggerezza le scelte economiche di una persona, soprattutto quando quelle scelte possono cambiare la vita sua e della sua famiglia. Il punto non è condannare chi firma. Il punto è capire che cosa stiamo normalizzando.
Stiamo normalizzando l’idea che la persona possa essere separata dalla propria presenza. Che il volto possa lavorare anche quando il corpo non c’è. Che la voce possa parlare anche quando il soggetto tace. Che l’identità possa essere ceduta, compressa, trasferita, moltiplicata.
E forse la domanda più scomoda è proprio questa: cosa resta dell’autenticità quando anche l’autenticità può essere simulata meglio di noi?
Per anni ci hanno chiesto di essere riconoscibili. Di avere un’immagine forte. Una voce unica. Una presenza digitale coerente. Un posizionamento. Una narrazione. Un’identità. Ora scopriamo che tutto questo non serviva solo a esprimerci. Serviva anche a renderci acquistabili.
L’AI applicata all’identità non è soltanto una tecnologia. È uno specchio crudele. Ci mostra una società che ha prima trasformato l’essere in immagine, poi l’immagine in capitale, ora il capitale in replica.
Il futuro non sarà abitato solo da persone e macchine. Sarà abitato da versioni. Versioni autorizzate, versioni contraffatte, versioni migliorate, versioni postume, versioni commerciali. Alcune parleranno con la nostra voce. Alcune useranno il nostro volto. Alcune saranno più efficaci di noi nel vendere ciò che noi eravamo.
Forse è qui che dovremmo fermarci. Non per rifiutare la tecnologia, ma per impedire che la tecnologia diventi l’ennesimo alibi per svuotare l’umano.
Perché il problema non è che l’intelligenza artificiale possa copiarci.
Il problema è che noi potremmo iniziare a considerare normale farci copiare, purché qualcuno paghi abbastanza.












