in

“Copyright e privacy rischiano di essere cannibalizzati dall’AI”, come evitarlo? Parla Guido Scorza

(Adnkronos) – Intorno all’Intelligenza Artificiale si stanno sviluppando sentimenti estremi: o ci porterà via dalla vita dedicata prettamente al lavoro, o ci distruggerà tutti. Nessuna via di mezzo nell’opinione pubblica: o estremo entusiasmo o terrore.  

Tra le paure quella che neanche i contenuti coperti da copyright siano al sicuro: “Una certezza più che un rischio”, spiega all’Adnkronos l’avvocato Guido Scorza, componente del Garante per la protezione dei dati, in occasione dell’AI Festival organizzato da Search On Media Group e WMF – We Make Future il 14 e 15 febbraio 2024 al MiCo di Milano. 

Il vaso di Pandora è stato aperto dalla causa intentata dal New York Times contro OpenAI e Microsoft per violazione di copyright. Il quotidiano della Grande Mela chiede ai giudici di porre fine alla pratica di utilizzare i suoi articoli per addestrare i chatbot.  

“Tutto sommato – continua Scorza – la stessa Open AI ha ammesso di aver bisogno anche di dati coperti da copyright per addestrare al meglio i propri algoritmi”. 

Si parla molto di questo aspetto, meno dei dati coperti da privacy “perché vengono considerati con un valore economico inferiore rispetto a quello del copyright, probabilmente a torto”, spiega l’avvocato.  

Ciò non significa che queste tecnologie vengano addestrate usando solo contenuti coperti da copyright: “Ovviamente quello che succede sul copyright vale anche per la privacy. – chiarisce Scorza –Credo che questa sia la questione più grande da risolvere: da una parte l’esigenza di queste società di migliorare i propri algoritmi utilizzando una enorme quantità di dati, dall’altra quella di aziende e cittadini di tutelare i propri dati e contenuti”.  

D’altronde il contesto storico è particolare: mentre cresce l’attenzione dei consumatori e degli investitori per la sostenibilità in senso lato, si sviluppa una tecnologia che per crescere utilizza dati coperti da copyright. Allora, come tutelare gli autori dei contenuti, e far sviluppare l’AI in un contesto più socialmente sostenibile dal momento che, come sottolinea Scorza, “nessuno di noi era informato su questi rischi”? 

Una domanda che non riguarda solo Open AI: “Non abbiamo ragione di ritenere che i modelli di addestramento siano stati così così tanto diversi negli altri casi”, precisa l’avvocato. La questione dipende prima di tutto dal considerare l’evoluzione tecnologica una causa che giustifichi o meno questo utilizzo dei dati in giro per il mondo. “Se si risponde di no, e quindi si dice che non c’è una causa esimente, allora si impone alle società di avere bisogno di un permesso per utilizzare i dati coperti da copyright o da privacy. Se invece si dice che questa causa esimente esiste, si mettono a rischio il diritto d’autore e il diritto alla privacy che – ricorda l’avvocato Scorza – sono fondamentali nella cornice europea”. 

Se si riterrà predominante l’interesse delle società che sviluppano tecnologie di AI, “entrambi i diritti sono destinati ad essere cannibalizzati, come in parte è già accaduto, e trasformati in asset tecnologici e commerciali”, avverte Guido Scorza. 

Il dibattito sull’AI riguarda la tutela dei dati personali e aziendali, ma anche l’equa distribuzione di questi asset. “Parliamo di un numero molto ristretto di società commerciali stabilite per di più in un paio di paesi in giro per il mondo”, ricorda Scorza, che afferma: “Oggettivamente credo che una distribuzione così oligopolistica degli asset sia poco sostenibile sia in termini di mercato che di democrazia”.  

D’altronde una situazione di oligopolio è già presente in vari ambiti della società: “La dieta mediatica globale – aggiunge Scorza – è decisa forse da una decina di soggetti, che finiscono per diventare molto influenti sull’intera comunità”. 

L’alternativa non è bloccare il processo di innovazione ma ampliarne i benefici, se non a tutti “almeno a molti e non a un numero ristretto di realtà”, specifica l’avvocato da sempre molto attivo sullo studio delle nuove tecnologie e della loro regolamentazione. 

Per molti la legge può essere lo strumento che limiti gli effetti negativi di questa rivoluzione tecnologica, ma l’avvocato Scorza ridimensiona le aspettative: “Credo che a livello nazionale in termini di protezione si possa far poco perché ogni singola nazione è troppo piccola rispetto a questo fenomeno. Qualsiasi regolamentazione protettiva nazionale sarebbe velleitaria”. 

Diversa la questione se ci si sposta all’ambito comunitario: “Il livello europeo – continua Scorza – mi pare un livello minimo, essenziale, probabilmente persino insufficiente. Pesa 500 milioni di utenti di servizi di servizi digitali su un mercato che conta già oggi tra i 4 e i 5 miliardi di utenti ed è destinato a crescere”. 

La Pubblica Amministrazione ha un ruolo fondamentale nel rendere sostenibile questa trasformazione, seguendo due matrici: la legge e gli incentivi alla stessa AI. Sotto il primo profilo, spiega il componente del Garante per la protezione dei dati, bisogna “attuare nella maniera più opportuna le disposizioni dell’Unione europea in materia. Ciò significa anche fare in modo che la PA disponga delle risorse, economiche e umane, necessarie per affrontare questo cambiamento”. 

Ad aprile il Parlamento europeo si riunirà per approvare il testo definitivo dell’AI Act, “Non mi aspetto modifiche. – spiega Scorza – Siamo alla cesellatura o prossimi alla cesellatura con l’approvazione in Parlamento, apportare modifiche importanti potrebbe far ripartire l’iter dall’inizio, invece il quadro è chiaro”. 

Qual è il ruolo che l’AI Act può avere nel regolare la diffusione dell’Intelligenza Artificiale? “Partiamo dal presupposto che non esiste un testo di regolamentazione salvifico. Per affrontare la sfida che abbiamo davanti serve educazione e formazione sul tema. Solo educando gli utenti a un utilizzo responsabile e socialmente sostenibile, si può evitare che questa tecnologia diventi deleteria per l’uomo”. 

Se non altro, l’AI Act ha il merito di essere il primo intervento normativo in materia e di sollevare il tema della trasparenza. “Il provvedimento dell’Unione ha diffusamente sollevato il tema dell’esistenza di una serie di questioni che magari, in assenza di questo regolamento, sarebbero passate in sordina o non avrebbero rappresentato neppure occasione di confronto. E poi l’AI Act produrrà indubbiamente trasparenza perché mette un’asticella, un livello da rispettare per quei produttori di intelligenza artificiale, quei distributori di servizi basati sull’intelligenza artificiale anche se stabiliti fuori dall’Unione europea che però vogliano lavorare nel mercato europeo, esattamente come è accaduto con il GDPR”. 

Le norme europee, dunque, sono la garanzia più tangibile per i cittadini: “La forza di queste regole è che si applicano a prescindere dal Paese madre della società: se si vuole operare nel territorio dell’Ue, ci sono delle regole, dei requisiti minimi da rispettare. Questa è un’importante garanzia in termini di trasparenza”, spiega ancora Scorza, che però avverte: “Tutto dipende dalle nostre aspettative: se pensiamo che l’AI Act ci consentirà di non diventare colonia algoritmica di altri, ci sbagliamo di grosso. Se, invece, da questo provvedimento ci aspettiamo e auspichiamo più trasparenza sulla diffusione dell’AI, allora non rimarremo delusi”. 

Un aspetto molto importante della sostenibilità è che la ricchezza e le opportunità date dall’AI vengano divise tra più persone, evitando quello scenario oligopolistico cui si è accennato: “Il primo livello di intervento è quello protezionistico, ma – spiega Scorza – non è l’unico. Anche a casa nostra possano esserci dei campioni, delle eccellenze dell’Intelligenza Artificiale. È fondamentale, quindi, che la Pubblica Amministrazione investa in questa nuova tecnologia”.  

Questa strada permetterebbe di perdere meno terreno rispetto a Cina e Usa, già molto avanti nel progresso dell’AI, perché, come ricorda Scorza, “Con i suoi acquisti e investimenti, l’amministrazione è anche un importante soggetto di mercato in Italia così come negli altri Paesi europei. Non nascondiamoci dietro un dito. – chiarisce l’avvocato – Se una delle aziende leader di settore fosse stata di casa nostra, tutti guarderemmo l’AI in maniera diversa, più fiduciosa e meno diffidente”. 

Solo pochi mesi fa Google ha annunciato tre prodotti che sfrutteranno l’intelligenza artificiale e il machine learning per affrontare le sfide ambientali e aiutare aziende e cittadini a ridurre il proprio impatto ambientale. 

Questi software combinano l’AI, il machine learning, le immagini aeree e i dati ambientali per fornire informazioni aggiornate sul potenziale solare, la qualità dell’aria e i livelli di polline. Tutti e tre i prodotti rientrano nelle Api (application programming interface), ovvero interfaccia di programmazione delle applicazioni.  

Ma l’AI potrà anche aiutare le società occidentali a ridurre gli sprechi di energia e a contrastare gli effetti negativi della crisi demografica che imperversa in Occidente. 

Esempi di come questo strumento potentissimo possa aiutare l’essere umano. Se usato responsabilmente e non per allargare le già evidenti differenze sociali. 

Written by Adnkronos

Look Down, l’artista Jago invita a “guardare verso i più fragili”

Ecco sintomi chiave Long Covid pediatrico, la lista in uno studio internazionale