⛔ Non tirare a indovinare ⛔ Usa il nostro screener azionario gratuito per trovare nuove opportunità velocemente Prova lo Screener gratuito

Entra in vigore l'AI act: ecco cosa prevede e come l'Ue intende proteggere i cittadini

Pubblicato 01.08.2024, 09:54
Aggiornato 01.08.2024, 10:05
© Reuters.  Entra in vigore l\'AI act: ecco cosa prevede e come l\'Ue intende proteggere i cittadini

È entrata in vigore la legge europea sull'Intelligenza artificiale: si applicherà a tutti i sistemi di AI già esistenti o in fase di sviluppo.

L'atto è considerato da molti come la prima legislazione al mondo che tenta di regolamentare l'AI in base ai rischi che essa comporta.

I legislatori hanno approvato la legge a marzo, ma la sua pubblicazione nella Gazzetta ufficiale della Commissione europea a luglio ha messo in moto le ruote per la sua entrata in vigore. La data del primo agosto dà il via a una serie di date e scadenze nei mesi e negli anni a venire per preparare le aziende che utilizzano l'AI a qualsiasi titolo a familiarizzare con la nuova legislazione e a conformarsi.

"La legge guiderà lo sviluppo dell’AI di cui gli europei possono fidarsi. E fornirà supporto alle PMI e alle startup europee per portare sul mercato soluzioni di intelligenza artificiale all’avanguardia", ha scritto sui social la presidente della Commissione europea Ursula von der Leyen.

La legge sull'AI valuta le aziende in base al rischio

L'AI Act dell'Ue assegna le sue regole a ogni azienda che utilizza sistemi di intelligenza artificale in base a quattro livelli di rischio, che a loro volta determinano le scadenze applicabili.

I quattro tipi di rischio sono:

  • nessun rischio;
  • rischio minimo,
  • rischio elevato,
  • sistemi di AI vietati.
  • L'Ue vieterà completamente alcune pratiche a partire dal febbraio 2025. Tra queste, quelle che manipolano il processo decisionale dell'utente o espandono i database di riconoscimento facciale attraverso lo scraping di Internet.

    Altri sistemi di AI ritenuti ad alto rischio, come le AI che raccolgono dati biometrici e quelle utilizzate per le infrastrutture critiche o per le decisioni in materia di occupazione, saranno soggetti a norme più severe.

    Queste aziende dovranno mostrare i loro dati di addestramento dell'AI e fornire la prova della supervisione umana, tra gli altri requisiti.

    Secondo Thomas Regnier, portavoce della Commissione europea, circa l'85% delle aziende di AI rientra nella seconda categoria, quella del "rischio minimo", che richiede una regolamentazione minima.

    Tra i 3 e i 6 mesi per la conformità delle aziende

    Heather Dawe, responsabile dell'AI responsabile presso la società di consulenza UST, sta già lavorando con clienti internazionali per adeguare l'uso dell'intelligenza artificiale alla nuova legge.

    I clienti internazionali di Dawe sono "d'accordo" con i nuovi requisiti della legge perché è stata riconosciuta la necessità di una regolamentazione dell'AI.

    Secondo Dawe, potrebbero essere necessari dai tre ai sei mesi, a seconda delle dimensioni dell'azienda e del ruolo dell'AI nel suo flusso di lavoro, per renderla conforme alla nuova legge.

    “C'è una serie di linee guida chiare su ciò che si deve fare. Qualsiasi complicazione è dovuta al fatto di non aver avviato il processo abbastanza velocemente”.
    Heather Dawe, resposabile AI di UST

    Le aziende potrebbero prendere in considerazione l'istituzione di comitati interni di governance dell'AI, ha proseguito Dawe, con esperti legali, tecnologici e di sicurezza per effettuare un audit completo delle tecnologie utilizzate e di come queste debbano aderire alla nuova legge.

    Se un'azienda non dovesse risultare conforme all'AI Act entro le varie scadenze, potrebbe incorrere in una multa fino al sette per cento del suo fatturato annuo globale, ha dichiarato Regnier della Commissione.

    Come si sta preparando la Commissione

    L'Ufficio AI della Commissione controllerà il rispetto delle regole per i modelli di intelligenza artificiale per scopi generali.

    Sessanta membri del personale interno della Commissione saranno trasferiti a questo ufficio e altri 80 candidati esterni saranno assunti nel corso del prossimo anno, ha dichiarato Regnier.

    Un comitato per l'AI, composto da delegati di alto livello provenienti da tutti i 27 Stati membri dell'Ue, ha "gettato le basi" per l'attuazione della legge nella sua prima riunione di giugno, secondo quanto riportato in un comunicato stampa .

    Il consiglio lavorerà con l'ufficio AI per garantire che l'applicazione della legge sia armonizzata in tutta l'Ue, ha aggiunto Regnier.

    Oltre 700 aziende hanno dichiarato che sottoscriveranno un Patto per l'AI: un impegno a conformarsi tempestivamente alla legge.

    Gli Stati dell'Ue hanno tempo fino al prossimo agosto per istituire autorità nazionali competenti che supervisionino l'applicazione delle norme nel loro Paese.

    La Commissione si sta inoltre preparando ad aumentare gli investimenti nell'AI, con un finanziamento di 1 miliardo di euro nel 2024 e fino a 20 miliardi di euro entro il 2030.

    "Si sente dire ovunque che ciò che l'Ue fa è puramente normativo, e che questo blocca l'innovazione. Questo non è corretto", ha detto Regnier. "La legislazione non serve a far desistere le aziende dal lanciare i loro sistemi, è il contrario. Vogliamo che operino nell'Ue, ma vogliamo proteggere i nostri cittadini e le nostre imprese".

    Per la Commissione, una delle sfide principali è quella di regolamentare le future tecnologie di AI, ha detto Regnier, ma ritiene che il sistema basato sul rischio permetta di regolamentare rapidamente qualsiasi nuovo sistema.

    Sono necessarie altre revisioni

    Risto Uuk, responsabile della ricerca europea presso il Future of Life Institute, ritiene che la Commissione europea debba ancora fornire alcuni chiarimenti su quanto siano rischiose determinate tecnologie.

    Ad esempio, secondo Uuk, l'uso di un drone per fotografare una rete idrica che necessita di riparazioni "non sembra super rischioso", nonostante rientri nella categoria ad alto rischio della legislazione.

    "Quando la si legge adesso, è piuttosto generica", ha detto Uuk. "Abbiamo questa guida a livello più generale e questo è utile, perché le aziende possono poi chiedersi se un sistema specifico sia ad alto rischio".

    Uuk ritiene che, una volta avviata l'attuazione, la Commissione sarà in grado di fornire un feedback più specifico.

    Secondo Uuk, la legge potrebbe spingersi oltre, imponendo maggiori restrizioni e multe più salate alle aziende Big Tech che operano nell'UE con l'IA generativa (GenAI).

    Le principali aziende di AI, come OpenAI e DeepMind, sono considerate "AI di uso generale" e rientrano nella categoria di rischio minimo.

    Le aziende che sviluppano AI di uso generale devono dimostrare come rispettano le leggi sul copyright, pubblicare una sintesi dei dati di addestramento e dimostrare come proteggono la cybersecurity.

    Secondo l'ong European Digital Rights altre aree da migliorare riguardano i diritti umani.

    "Ci rammarichiamo del fatto che la legge finale contenga diverse lacune importanti per la biometria, la polizia e la sicurezza nazionale, e chiediamo ai legislatori di colmare queste lacune", ha dichiarato un portavoce in una dichiarazione fornita a Euronews Next.

    Ultimi commenti

    Installa le nostre app
    Avviso esplicito sui rischi: Il trading degli strumenti finanziari e/o di criptovalute comporta alti rischi, compreso quello di perdere in parte, o totalmente, l’importo dell’investimento, e potrebbe non essere adatto a tutti gli investitori. I prezzi delle criptovalute sono estremamente volatili e potrebbero essere influenzati da fattori esterni come eventi finanziari, normativi o politici. Il trading con margine aumenta i rischi finanziari.
    Prima di decidere di fare trading con strumenti finanziari o criptovalute, è bene essere informati su rischi e costi associati al trading sui mercati finanziari, considerare attentamente i propri obiettivi di investimento, il livello di esperienza e la propensione al rischio e chiedere consigli agli esperti se necessario.
    Fusion Media vi ricorda che i dati contenuti su questo sito web non sono necessariamente in tempo reale né accurati. I dati e i prezzi presenti sul sito web non sono necessariamente forniti da un mercato o da una piazza, ma possono essere forniti dai market maker; di conseguenza, i prezzi potrebbero non essere accurati ed essere differenti rispetto al prezzo reale su un dato mercato, il che significa che i prezzi sono indicativi e non adatti a scopi di trading. Fusion Media e qualunque fornitore dei dati contenuti su questo sito web non si assumono la responsabilità di eventuali perdite o danni dovuti al vostro trading né al fare affidamento sulle informazioni contenute all’interno del sito.
    È vietato usare, conservare, riprodurre, mostrare, modificare, trasmettere o distribuire i dati contenuti su questo sito web senza l’esplicito consenso scritto emesso da Fusion Media e/o dal fornitore di dati. I diritti di proprietà intellettuale sono riservati da parte dei fornitori e/o dalle piazze che forniscono i dati contenuti su questo sito web.
    Fusion Media può ricevere compensi da pubblicitari che compaiono sul sito web, in base alla vostra interazione con gli annunci pubblicitari o con i pubblicitari stessi.
    La versione inglese di questa convenzione è da considerarsi quella ufficiale e preponderante nel caso di eventuali discrepanze rispetto a quella redatta in italiano.
    © 2007-2024 - Fusion Media Limited. tutti i Diritti Riservati.