L’Architettura della libertà
di Carmelo Imbesi - 10 Marzo 2026
Genesi, crisi e futuro delle Creative Commons
Quando la tecnica rende tutto riproducibile, il diritto tenta di rallentare il mondo. Le Creative Commons sono state una risposta fragile ma necessaria a questo attrito. L’algoritmo, oggi, rimette tutto in discussione.
C’è una tensione sottile che attraversa la storia della creatività umana degli ultimi trent’anni. È la frizione tra la liquidità della tecnologia e la rigidità del diritto, uno scontro tra l’infrastruttura fisica su cui poggiava il vecchio mondo e l’ecosistema digitale che ha ridefinito il concetto stesso di “copia”.
Per secoli, il diritto d’autore ha dormito sonni tranquilli, protetto non tanto dalla legge, quanto dalla fisica. Copiare un libro, stampare un vinile o duplicare una pellicola era costoso, lento, imperfetto. La materia stessa fungeva da barriera alla contraffazione, con le dovute eccezioni.
Ma con l’avvento del digitale, questa barriera si è dissolta nel nulla: la riproduzione è divenuta istantanea, a costo marginale zero, indistinguibile dall’originale. In questo nuovo scenario, l’architettura legale del “Tutti i diritti riservati” — un monolite binario che imponeva il silenzio o il permesso esplicito — ha mostrato crepe strutturali evidenti, rischiando di trasformare ogni atto di cultura condivisa in un illecito potenziale.
Le licenze Creative Commons (CC) non sono nate come un atto di vandalismo contro il copyright, come spesso una certa visione reazionaria tende a dipingere, ma come una sua raffinata ingegneria di salvataggio. Sono strumenti di diritto privato che hanno permesso agli
autori di uscire dalla gabbia del “tutto chiuso”, offrendo una modulazione del consenso: “Alcuni diritti riservati”.
Il peccato originale: Eldred contro Ashcroft
Per comprendere l’anima delle Creative Commons, non bisogna guardare al codice informatico, ma a una ferita costituzionale. La genesi di tutto risiede in una sconfitta. Siamo alla fine degli anni ’90 e il Congresso degli Stati Uniti, sotto la pesante influenza delle lobby dell’entertainment, approva il Sonny Bono Copyright Term Extension Act (CTEA). Soprannominata ironicamente “Mickey Mouse Protection Act” — poiché salvava in extremis i primi film di Topolino dall’entrata nel pubblico dominio — questa legge estendeva retroattivamente la durata del copyright di vent’anni. Un congelamento brutale del Pubblico Dominio, quel vasto oceano di opere che appartengono a tutti, da cui ogni artista attinge per creare il nuovo. Eric Eldred, un editore che aveva costruito la sua vita sulla digitalizzazione di opere libere, si trovò improvvisamente fuorilegge.
A difenderlo scese in campo Lawrence Lessig, costituzionalista di Stanford e visionario della cultura libera. Lessig porta la battaglia fino alla Corte Suprema (Eldred v. Ashcroft), con una tesi di una lucidità disarmante: la Costituzione americana concede il monopolio agli autori solo per “tempi limitati”, al fine di promuovere il progresso. Estendere la durata all’infinito, a rate, tradiva il patto sociale. Ma nel 2003, la Corte diede torto a Lessig. La sconfitta fu netta.. È proprio quel fallimento giudiziario a generare la svolta. Lessig capisce che la via politica è sbarrata e decide di usare il diritto d’autore contro se stesso. L’intuizione è pragmatica: se la legge impone automaticamente “tutti i diritti riservati”, un contratto privato può permettere all’autore di rinunciarvi selettivamente. Non serviva abolire il copyright, ma “hackerarlo” legalmente. Nascono così le Creative Commons.

Ingegneria legale: i tre livelli della licenza
La genialità del sistema CC non risiede solo nel contenuto giuridico, ma nella sua architettura comunicativa. Lessig e i suoi collaboratori compresero che, nel web, una licenza comprensibile solo agli avvocati era inutile.
Per questo, ogni licenza è stata costruita su tre strati geologici distinti ma interconnessi:
- Legal Code: Il testo giuridico vero e proprio, denso, rigoroso, vincolante in tribunale. L’armatura per gli avvocati.
- Commons Deed: L’interfaccia umana. Un riassunto visivo, fatto di icone e frasi semplici (“sei libero di condividere, a patto che…”), che rende il diritto accessibile a chiunque.
- Machine Readable Code: Il livello invisibile. Metadati inseriti nei file che permettono ai motori di ricerca e alle intelligenze artificiali di “vedere” i diritti. È grazie a questo strato se oggi Google Immagini può filtrare i risultati per “diritti di utilizzo”.
La modulazione del permesso
Il sistema non è un blocco unico, ma un linguaggio composito. L’autore costruisce la propria licenza assemblando quattro “mattoncini” fondamentali, quattro clausole che riflettono diverse filosofie di condivisione.
Al centro delle licenze Creative Commons più diffuse c’è l’Attribuzione (BY), la clausola che rende esplicito il riconoscimento della paternità morale dell’opera; fa eccezione lo strumento CC0, che consente una rinuncia volontaria ai diritti. Da qui si dipanano le scelte strategiche. C’è chi sceglie la via del Copyleft puro, attraverso la clausola Condividi allo stesso modo (SA): una clausola ‘virale’ che impone a chi riusa l’opera di rilasciare le derivate con la stessa licenza, garantendo — per quanto il diritto contrattuale possa farlo — che la conoscenza rimanga circolante e riutilizzabile anche nelle generazioni successive (il modello di Wikipedia).
C’è poi chi, legittimamente, vuole condividere ma teme lo sfruttamento parassitario. Qui interviene la clausola Non commerciale (NC), che consente la libera circolazione dell’opera negli usi non orientati al profitto, riservando all’autore il controllo sugli sfruttamenti economicamente rilevanti. Una scelta diffusa, ma non priva di ambiguità interpretative, soprattutto nei confini sempre più sfumati tra uso commerciale e non commerciale. È la licenza preferita dai musicisti indipendenti e dai podcaster: diffondi pure la mia musica, ma se la usi in uno spot pubblicitario, devi pagarmi. Alcuni autori, pur volendo condividere liberamente il proprio lavoro, scelgono strumenti come CC+, che combinano una licenza Creative Commons standard per gli usi non commerciali con accordi separati per sfruttamenti a fini di lucro.
Infine, la clausola Non opere derivate (ND) tutela l’integrità assoluta dell’opera, vietando remix o modifiche: uno scudo per chi, come i fotografi o gli scrittori di saggi, non vuole vedere il proprio lavoro tagliato o distorto.
L’evoluzione: dal porting a un testo giuridico transnazionale
La storia delle CC è anche una storia di maturazione giuridica. Le prime versioni (dalla 1.0 alla 3.0) soffrivano di un peccato di gioventù: erano scritte pensando al diritto americano o necessitavano di un faticoso processo di “porting” (adattamento) alle singole legislazioni nazionali. Avevamo una licenza “CC Italia”, una “CC Francia”, creando una pericolosa frammentazione legale.
La svolta è arrivata con la Versione 4.0, rilasciata nel 2013. Abbandonando il porting, la 4.0 è stata riscritta come un testo giuridico unitario e transnazionale pensato per operare in modo coerente all’interno di ordinamenti giuridici differenti. Ha risolto problemi enormi, come la gestione dei diritti sui generis sulle banche dati (fondamentali per la scienza) e la questione delicatissima dei diritti morali nei paesi di Civil Law come l’Italia. Ha introdotto meccanismi di sanatoria (cure period) per chi sbaglia in buona fede, rendendo il sistema meno punitivo e più collaborativo.
L’anomalia italiana: tra open access e “pseudo-copyright”
Se a livello globale le CC sono lo standard dell’Open Access, in Italia la loro applicazione al patrimonio culturale si scontra con un “doppio binario” normativo che ha del surreale.
Mentre per la musica o la letteratura contemporanea tutto scorre liscio, per le immagini dei nostri beni culturali (un dipinto di Raffaello, una statua romana) entriamo in un campo minato. Secondo il diritto d’autore, queste opere sono in pubblico dominio da secoli. Eppure, il Codice dei Beni Culturali (il Codice Urbani) istituisce una sorta di diritto dominicale perpetuo, una forma di controllo amministrativo sull’uso economico delle riproduzioni che, pur non configurandosi formalmente come diritto d’autore, ne replica di fatto gli effetti: un monopolio pubblico potenzialmente perpetuo sulle immagini del patrimonio culturale.
Questo crea un cortocircuito logico: un museo che rilascia un’immagine in Creative Commons BY (libera per tutti gli usi) sta di fatto rinunciando a entrate potenzialmente previste dalla normativa vigente e muovendosi in una zona grigia che, in assenza di indirizzi chiari, è stata talvolta letta come possibile esposizione al rischio di danno erariale. Nonostante ciò, istituzioni illuminate come il Museo Egizio di Torino hanno avuto il coraggio di forzare la mano, abbracciando l’Open Access e dimostrando che la visibilità e la ricerca scientifica valgono ben più di qualche spicciolo incassato dalla vendita di una foto. Altri, come la Pinacoteca di Brera, rimangono impigliati in policy ibride che generano confusione nell’utente: “Scarica pure, ma se pubblichi devi pagare”. È una schizofrenia che il legislatore italiano tarda a risolvere, lasciando il nostro patrimonio un passo indietro rispetto agli standard europei.
La minaccia esistenziale: l’intelligenza artificiale
Oggi, tuttavia, l’intero edificio delle Creative Commons trema di fronte a una sfida che Lessig non poteva prevedere: l’Intelligenza Artificiale Generativa (IA).
Le licenze CC erano un patto tra umani: “Io ti do la foto, tu mi citi”. Ma l’IA non “usa” l’opera nel senso classico; la “mangia”. I Large Language Models (LLM) vengono addestrati su dataset immensi (come Common Crawl) che contengono miliardi di opere CC. Qui il sistema si rompe.
Come si applica la clausola “Attribuzione” se un testo è generato dalla statistica di un milione di autori? È tecnicamente impossibile. E la clausola “Non Commerciale”? Se un soggetto commerciale utilizza opere rilasciate in CC BY-NC come materiale di addestramento per modelli a scopo di lucro, si apre una zona di frizione giuridica ancora irrisolta, in cui alcuni invocano le eccezioni per il text and data mining o il fair use, mentre altri ravvisano una violazione dello spirito — se non della lettera — della licenza. Di fatto, le licenze CC rischiano di diventare inefficaci nella fase di input dell’IA, lasciando gli autori con la sensazione di essere stati saccheggiati.
Creative Commons ha risposto non con nuove leggi, ma con nuovi standard tecnici. L’iniziativa “CC Signals” punta a inserire dei segnali nel codice delle pagine web per dire alle macchine: “Non usare per il training”. È un tentativo ambizioso e, per certi versi, fragile: spostare il conflitto dal piano giuridico a quello tecnico, nella speranza che standard condivisi possano supplire all’inerzia normativa.
Si cerca di instaurare un nuovo “contratto sociale” con le Big Tech, basato non sulla minaccia di causa, ma sul rispetto di standard etici. Ma senza una legge che renda questi segnali vincolanti, rischia di essere una battaglia di Davide contro Golia, dove Golia non ha nemmeno bisogno di scendere in campo per vincere.
La governance dell’accesso
Le Creative Commons ci hanno insegnato che la condivisione può essere ordinata, legale e dignitosa. Hanno costruito l’infrastruttura di Wikipedia e della scienza aperta. Ma l’era dell’IA sposta il valore dalla singola opera alla massa dei dati, rendendo le vecchie tutele individuali fragili come carta velina.
La sfida del prossimo decennio non sarà più decidere se aprire o chiudere, ma chi governerà l’infrastruttura della conoscenza. Se non troveremo il modo di far rispettare la volontà dei creatori anche dentro le “scatole nere” degli algoritmi, rischiamo di passare da un’era di condivisione a un’era di estrazione, dove la creatività umana diventa solo carburante grezzo per le macchine. E questo, nessun codice legale, da solo, potrà impedirlo.
