In un contesto europeo più ampio, il Parlamento europeo ha recentemente discusso una proposta di regolamento che stabilisce regole armonizzate sull'intelligenza artificiale, conosciuta come "Ai Act." Questo atto mira a fornire un quadro regolatorio completo sull'uso dell'Intelligenza Artificiale nell'Unione Europea e a garantire la sua applicazione in modo uniforme tra i paesi membri. Antonio Nicita, promotore del disegno di legge italiano, ha indicato che, in attesa di questo quadro regolatorio europeo, è urgente introdurre misure che rendano chiara l'origine non umana dei contenuti generati dall'IA.

La proposta di legge italiana prevede che i soggetti responsabili della pubblicazione e della diffusione dei contenuti generati dall'IA debbano garantire agli utenti un'immediata riconoscibilità della natura artificiale e manipolata di tali contenuti. Questo può essere realizzato attraverso un'etichettatura univoca, ad esempio, con la dicitura "Ai made/prodotto da intelligenza artificiale," come stabilito dall'Autorità per le garanzie nelle comunicazioni (Agcom). L'Agcom, l'organismo italiano responsabile della regolamentazione delle comunicazioni, sarà incaricato di definire le modalità di applicazione di questa etichettatura, che dovrà essere chiaramente visibile agli utenti. L'Agcom sarà anche responsabile del monitoraggio e dell'applicazione delle disposizioni della legge e avrà il potere di segnalare e rimuovere i contenuti che violano queste disposizioni. Le sanzioni saranno proporzionate alla gravità delle violazioni.

Nel mondo sempre più digitalizzato in cui viviamo, l'Intelligenza Artificiale (IA) sta assumendo un ruolo sempre più centrale nella produzione di contenuti audiovisivi ed editoriali. L'IA generativa, che include il machine learning e il deep machine learning, è in grado di creare contenuti audio, video e testuali che possono apparire autentici, ma che in realtà sono il risultato di elaborazioni automatizzate. Questa tendenza ha sollevato diverse preoccupazioni riguardo all'autenticità delle informazioni, alla violazione dei diritti d'autore, alla manipolazione dell'immagine e alla diffusione di disinformazione. Per affrontare queste sfide, il Partito Democratico (Pd) ha presentato un disegno di legge che propone l'introduzione dell'obbligo di etichettatura per i contenuti generati da IA.

Il disegno di legge, con Antonio Nicita come primo firmatario, mira a garantire la trasparenza e la chiarezza riguardo all'origine dei contenuti generati da IA. L'obiettivo principale è proteggere i consumatori da possibili manipolazioni dell'informazione e violazioni dei diritti d'autore.

Uno dei principali punti di preoccupazione evidenziati nella proposta di legge è la crescente diffusione dei cosiddetti "deep fake". Questi sono contenuti audio, immagine o video che sono stati alterati o creati in modo tale da sembrare autentici o veritieri, ma che in realtà sono il risultato di elaborazioni complesse effettuate dall'IA. L'apprendimento automatizzato e il deep machine learning consentono all'IA di apprendere da grandi quantità di dati e creare contenuti difficilmente distinguibili dalla realtà. Questo solleva una serie di questioni legate all'autenticità dei contenuti e alla loro potenziale utilizzazione fraudolenta.

Criticità

La proposta di legge riconosce che l'ampio ricorso ai contenuti generati da IA comporta diverse criticità. Tra le principali preoccupazioni figurano:

Autenticità
I deep fake e altri contenuti generati da IA possono ingannare il pubblico, poiché sembrano reali. Questo solleva il problema dell'autenticità delle informazioni e della difficoltà di verificarne l'origine.

Verifica delle Fonti
L'IA non ha fonti, ma crea contenuti basandosi su dati e modelli precedentemente appresi. Questo rende difficile tracciare l'origine di un determinato contenuto.

Diritto d'Autore
La creazione di contenuti da parte dell'IA solleva domande sui diritti d'autore. Chi è il legittimo proprietario di un contenuto generato da un algoritmo?

Tutela della Propria Immagine
Le persone coinvolte in deep fake o contenuti simili possono subire danni alla propria immagine e reputazione, il che solleva questioni di tutela legale.

Disinformazione
L'uso non etico dell'IA può portare alla diffusione di notizie false e disinformazione, con conseguenze potenzialmente gravi sulla società.

Responsabilità per Diffamazione
Chi è responsabile per la diffamazione o danni causati da contenuti generati da IA? La proposta di legge cerca di affrontare questa questione.

Il disegno di legge presentato dal Partito Democratico con l'obbligo di etichettatura per i contenuti generati da IA rappresenta un passo importante verso la protezione della trasparenza e della chiarezza nelle comunicazioni digitali. Mentre l'IA continua a evolversi e a essere utilizzata per la creazione di contenuti, è fondamentale affrontare le sfide legate all'autenticità, ai diritti d'autore e alla responsabilità. La proposta punta a trovare un equilibrio tra l'innovazione tecnologica e la tutela dei diritti e della fiducia del pubblico. Il dibattito sulla regolamentazione dell'IA e dei contenuti da essa generati sarà essenziale per garantire un uso responsabile di questa tecnologia emergente.

Left B - Web Idea

newsletter image