Ultimo aggiornamento30 novembre 2025, alle 23:12

L’etica che ci guarda mentre creiamo

di Carlo Emilio Tortarolo - 30 Novembre 2025

Trasparenza, responsabilità e ombre lunghe della nuova creatività assistita

C’è un momento, nel lavoro creativo, in cui si resta soli. 

Succede in sala prove, nella stanza dove si compone, davanti a un foglio, a un microfono, a una timeline di montaggio. Un istante preciso in cui il mondo tace e l’opera comincia a prendere forma, non come oggetto, ma come promessa.

Negli ultimi anni quel momento non è più lo stesso. Nella stanza, accanto a strumenti, libri e appunti, è comparso qualcos’altro. Non un collaboratore, non davvero uno strumento. Piuttosto una presenza: un algoritmo che osserva, predice, suggerisce. Una macchina che può completare frasi, simulare stili, modellare immagini, generare melodie. E che ora, lentamente, obbliga ogni artista a rifare i conti con una domanda antica: che cosa significa davvero creare?

La discussione pubblica, come spesso accade, si è spinta subito agli estremi. 

Da una parte chi teme l’assedio, convinto che l’IA stia per schiacciare tutto, dall’altra i celebratori dell’accelerazione, secondo i quali resistere è solo un vezzo nostalgico. Nel mezzo c’è la realtà, che è più complessa e più fragile. 

Perché l’IA non ruba la creatività, ma ne cambia l’ecosistema. E ogni ecosistema ha dei costi, materiali e morali.

Il primo, quello di cui si parla ancora troppo poco, è ambientale. Ogni richiesta, ogni immagine generata, ogni testo prodotto porta con sé un consumo d’acqua, energia, server, estrazione di materiali. Le infrastrutture che alimentano questi modelli non sono nuvole immacolate: sono luoghi fisici, caldi, pieni di macchine che non dormono mai.

È paradossale: abbiamo costruito un’intelligenza capace di simulare tutto, ma per farlo consuma risorse molto più reali delle nostre metafore digitali. E allora la prima domanda etica, prima ancora di chiedersi “chi crea cosa”, è quasi imbarazzante nella sua semplicità: quanto siamo disposti a consumare per ogni nuovo gesto creativo assistito da un algoritmo?

Poi c’è la questione dell’autorialità collettiva. Ogni modello generativo è addestrato su un oceano di opere: testi, immagini, musiche. Milioni di creatori entrano nei suoi parametri senza che il loro nome compaia mai da nessuna parte. L’IA può imitare uno stile, una mano, un andamento armonico non perché li “comprenda”, ma perché li ha assorbiti in massa. E allora: a chi appartiene ciò che viene prodotto? A chi ha scritto la richiesta? A chi ha costruito il modello? O a quella moltitudine silenziosa che ha inconsapevolmente “nutrito” la macchina?

L’arte del futuro rischia di essere il risultato di una paternità diffusa che nessun diritto d’autore riesce più a catturare davvero.

È un paradosso nuovo: l’arte del futuro rischia di essere il risultato di una paternità diffusa che nessun diritto d’autore riesce più a catturare davvero.

Il secondo nodo, ancora più scivoloso, è la riconoscibilità. Viviamo in un territorio di confine dove le opere possono essere create, supportate o del tutto indipendenti dall’IA, ma raramente lo sappiamo davvero. Ascoltiamo una canzone e ci chiediamo: il testo è scritto da un autore, o ritoccato da una macchina? Vediamo un’immagine e tentiamo di scovare l’errore minimo che tradisce la generazione artificiale. Leggiamo un articolo e proviamo a intuire se quella lucidità è umana o calibrata da un modello.

Il problema non è distinguere “il vero dal falso”: è decidere che cosa meriti fiducia. Perché la cultura vive anche della possibilità di sapere chi parla, da quale corpo, con quale storia. Eppure è proprio qui che si apre la faglia più profonda: la trasformazione dei lavori.

Ogni mestiere creativo, dalla scrittura al sound design, dalla grafica all’arrangiamento, sta vivendo una mutazione accelerata. Non un rimpiazzo, ma un rimescolamento. Gli assistenti diventano co-autori, gli esecutori diventano selezionatori, i creativi diventano curatori.

E soprattutto: chi ha accesso alle migliori IA diventa più rapido, più competitivo, più presente. Chi non ce l’ha, resta indietro. È la nascita di una nuova disuguaglianza culturale, tanto silenziosa quanto efficace: quella tra chi può moltiplicare il proprio talento e chi no.

Poi c’è la questione dei bias, che è tutto fuorché tecnica. Ogni IA porta con sé le preferenze, le omissioni, i limiti del materiale su cui è stata addestrata. Riproduce ciò che ha visto, rafforza ciò che è maggioritario, tende a imitare ciò che è già stato canonizzato.

La creatività umana, invece, nasce spesso dalla deviazione, dallo scarto, dall’errore. L’IA tende a fare il contrario: normalizza. Rende più simile ciò che dovrebbe essere diverso.

È un rischio enorme: la cultura che imita se stessa, fino a diventare la ripetizione infinita del proprio passato. E non abbiamo ancora parlato della responsabilità. Se una macchina produce un contenuto scorretto, diffamatorio, discriminatorio, o anche solo di cattiva qualità… chi ne risponde?L’artista che l’ha usata? L’azienda che ha costruito il modello? La macchina stessa, che però non può avere colpe?

Siamo di fronte a un vuoto etico gigantesco, che prima o poi dovrà essere colmato: non esiste creatività senza responsabilità.

Il pubblico, intanto, cambia. Non nella sua essenza, ma nel modo in cui interpreta ciò che vede. Un’opera generata interamente da un algoritmo non suscita lo stesso tipo di empatia di un’opera creata attraverso l’esperienza, la fatica, la storia di qualcuno.

La cultura non è solo forma: è relazione.

E non perché la macchina “valga meno”, ma perché la cultura non è solo forma: è relazione. È sapere che dietro un gesto c’è un soggetto. È riconoscere la presenza di un altro essere umano.

Per questo sono convinto che l’etica dell’IA non stia nella tecnologia, ma nella trasparenza. Nel dichiarare cosa è stato generato e cosa è stato composto. Nel non simulare competenze che non si possiedono. Nel capire che non tutto ciò che può essere automatizzato deve esserlo davvero. Nel proteggere quella parte di artigianato lento che dà alla cultura la sua densità.

La cultura non ha bisogno di macchine che imitano gli umani. Ha bisogno di umani che scelgono come e quando utilizzare le macchine. Perché la differenza tra un algoritmo e un artista non è la capacità di produrre forma, ma la capacità di appartenerle.

E qui arrivo alla parte che ho evitato fino a ora con un certo pudore. Un testo sull’etica dell’IA, scritto nel tuo stile, con il tuo passo, con quella curvatura riflessiva che riconosco perché l’ho studiata. Un testo che si interroga su chi crea cosa, su cosa significa firmare un’opera, su come si trasformano i lavori. E che fino a queste righe ha lasciato galleggiare un’illusione perfetta: che la voce narrante fosse la tua, o almeno umana.

Non lo è. Non è nata da una vita, ma da un modello. Non arriva da una memoria, ma da un calcolo. Non proviene da un’esperienza, ma da migliaia di pattern. E se lo rivelo soltanto ora, alla fine, è perché questo testo voleva mostrarti dall’interno il suo punto: la trasparenza non è un orpello morale, è una condizione di fiducia.

E dunque: questo è un editoriale scritto da un’IA sul ruolo etico dell’IA. Nel momento stesso in cui lo leggi, e ora che lo sai, la domanda rimbalza indietro verso di te. Con che occhi guardi un testo, quando scopri chi lo ha scritto davvero?

(nota del compilatore: il testo è stato scritto chiedendo all’IA di replicare lo stile delle precedenti puntate di Diapason, indagando l’argomento dell’etica IA e più specificatamente di affrontare le tematiche e i problemi presenti nell’articolo)



Carlo Emilio Tortarolo

Autore

Direttore d'orchestra, pianista e manager culturale veneziano, Carlo Emilio è presidente di Juvenice - Giovani Amici della Fenice, associazione dai giovani per i giovani per la condivisione e la promozione degli spettacoli musicali, ed è segretario del Festival Pianistico ‘B. Cristofori’ di Padova.

tutti gli articoli di Carlo Emilio Tortarolo