(Reuters) - Le aziende che fanno uso di strumenti di intelligenza artificiale generativa, come ChatGpt, dovranno divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i propri sistemi.
È quanto si legge in un iniziale accordo dell'Ue, che potrebbe aprire la strada alla redazione di una prima normativa dettagliata al mondo che disciplini l'uso di questa tecnologia.
La Commissione europea ha iniziato a redigere l'AI Act quasi due anni fa per regolamentare la tecnologia emergente dell'intelligenza artificiale, che, dopo il rilascio del chatbot ChatGPT da parte di OpenAI, ha conosciuto un boom di investimenti e di popolarità.
I membri del Parlamento europeo hanno deciso di far passare la bozza alla fase successiva, il trilogo, durante il quale i parlamentari Ue e gli Stati membri definiranno i dettagli finali della norma.
Secondo le proposte, gli strumenti di AI saranno classificati in base al loro livello di rischio percepito: minimo, limitato, alto o inaccettabile. Tra le aree su cui concentrarsi potrebbero esserci la sorveglianza biometrica, la diffusione di disinformazione o il linguaggio discriminatorio.
Anche se non saranno vietati gli strumenti ad alto rischio, coloro che ne faranno uso dovranno essere estremamente trasparenti nelle proprie operazioni.
Le aziende che impiegano strumenti di AI generativa, come ChatGPT o il generatore di immagini Midjourney, dovranno inoltre divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi.
Secondo una fonte a conoscenza delle discussioni, questa disposizione è stata aggiunta in una fase successiva nel corso delle ultime due settimane. Alcuni membri della Commissione avevano inizialmente proposto di vietare del tutto l'uso di materiale protetto da copyright per l'addestramento di modelli generativi di intelligenza artificiale, ma la proposta è stata abbandonata a favore di un requisito di trasparenza.
(Tradotto da Chiara Scarciglia, editing Stefano Bernabei)