«In seguito alla pubblicazione del cosiddetto "modello di trasparenza" da parte dell'Ufficio per l'intelligenza artificiale della Commissione europea il 24 luglio, la maggior parte dei fornitori di modelli di intelligenza artificiale sarà tenuta a pubblicare riepiloghi dei dati di addestramento a partire dal 2 agosto 2025. Sebbene questi modelli fossero stati inizialmente concepiti per facilitare l'applicazione del copyright obbligando gli sviluppatori di intelligenza artificiale a rivelare l'origine dei loro dati di addestramento, la Federazione europea dei giornalisti si unisce ai settori dei media e della creatività nel criticare il modello definitivo, avendo ripetutamente chiesto obblighi di trasparenza più dettagliati». Lo si legge in una nota pubblicata dall’Efj sul suo sito web mercoledì 30 luglio 2025.
Il sindacato europeo prosegue: «Previsto dall'AI Act, l'obbligo per i fornitori di modelli di intelligenza artificiale di divulgare i dati utilizzati per addestrare gli algoritmi avrebbe potuto essere uno strumento utile per i titolari dei diritti per dimostrare che gli sviluppatori di intelligenza artificiale hanno rubato le loro opere. Tuttavia, il modello impone ai fornitori di rivelare solo il 10% dei domini recuperati, consentendo al contempo alle aziende di eludere i propri obblighi invocando segreti commerciali. L'Efj, insieme all'associazione dei giornalisti tedeschi Djv, ha sostenuto con forza la massima trasparenza per proteggere i pezzi giornalistici e aiutare gli autori a intraprendere azioni legali contro l'uso non autorizzato e non retribuito del loro lavoro».
Hanna Möllers, direttrice generale del Djv ed esperta di intelligenza artificiale, ha affermato: «La Commissione Europea ha ceduto alle grandi aziende tecnologiche. L'Ufficio per l'intelligenza artificiale sta dando agli autori pietre invece di pane e sta ignorando la volontà del Parlamento europeo, come stabilito dalla legge sull'intelligenza artificiale».
La nota del sindacato europeo prosegue: «In una dichiarazione comune, una coalizione di creator europei, tra cui l'Efj, ha ulteriormente criticato l'esito, denunciando mesi di negoziati come un fallimento nell'affrontare le principali preoccupazioni del settore, favorendo invece gli interessi dei principali fornitori di IA: "Respingiamo fermamente qualsiasi affermazione secondo cui il Codice di condotta raggiunga un equilibrio equo e praticabile o che il modello offra sufficiente trasparenza sulla maggior parte delle opere protette da copyright o altri argomenti utilizzati per addestrare modelli di GenAI. Ciò è semplicemente falso e rappresenta un tradimento degli obiettivi della legge UE sull'IA", si legge nella dichiarazione».
L'Efj «si unisce al settore creativo nell'invitare la Commissione europea a rivedere il pacchetto di attuazione e ad applicare in modo significativo l'articolo 53, e il Parlamento europeo e gli Stati membri a contestare l'insoddisfacente processo relativo al Codice di condotta e ai modelli di trasparenza».
Sulla questione si è espressa anche Alessandra Costante, segretaria generale della Federazione nazionale della Stampa italiana: «Il problema della riservatezza dei patti commerciali lo abbiamo toccato direttamente al tavolo del rinnovo contrattuale, quando Fnsi ha chiesto trasparenza agli editori sulle piattaforme di AI e ha ricevuto una ferma opposizione. I patti di riservatezza – ha concluso Costante - non possono valere quando è in gioco lo sfruttamento dell’attività giornalistica, il rischio di fake news e possibili conseguenze sulla democrazia». (anc)