🚀 I rialzi di maggio: l'AI li ha anticipati: PRFT+55% in soli 16 giorni! I valori di giugno sono in arrivo.Vedi lista

Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?

Pubblicato 25.09.2023, 12:28
© Reuters.  Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?
GOOGL
-
AAPL
-
TSLA
-
GOOG
-
SPOT
-

**L'intelligenza artificiale (**IA) rappresenta un rischio potenzialmente esistenziale per l'umanità? Pare proprio cos', almeno secondo l'opinione del Future of Life Institute (FLI), che sei mesi fa ha pubblicato una lettera aperta per chiedere una "pausa immediata" di tutti i grandi esperimenti di IA.

La lettera è arrivata in un momento di grande interesse pubblico per l'IA generativa, quando applicazioni come ChatGPT e Midjourney hanno mostrato come la tecnologia si stia avvicinando sempre di più a replicare le capacità umane nella scrittura e nell'arte.

Per i firmatari della lettera - tra cui l'amministratore delegato di X, Tesla (NASDAQ:TSLA) e SpaceX, Elon Musk, il cofondatore di Apple (NASDAQ:AAPL), Steve Wozniak, e lo scrittore, Yuval Noah Harari - l'ascesa apparentemente improvvisa dell'intelligenza artificiale generativa ha reso necessaria una pausa. Ad aziende come OpenAI di ChatGPT e Google (NASDAQ:GOOGL) è stato chiesto di considerare i "profondi rischi per la società e l'umanità" che la loro tecnologia potrebbe creare.

È giusto dire che i principali attori non hanno premuto il pulsante "pausa".

Al contrario, altre aziende si sono unite alla corsa dell'IA generativa con i propri modelli linguistici di grandi dimensioni (LLM), con Meta che ha rilasciato Llama 2 e Anthropic che ha presentato il suo rivale di ChatGPT, Claude 2.

Che gli avvertimenti siano stati ascoltati o meno dai giganti tecnologici, la lettera della FLI ha segnato una pietra miliare in quello che si preannuncia come l'anno dell'IA.

Mark Brakel, direttore delle politiche dell'Istituto, afferma che non si aspettava di ricevere la risposta dopo quella lettera, con un'ampia copertura da parte della stampa e una rinnovata urgenza all'interno dei governi di capire come comportarsi con i rapidi progressi dell'IA.

La lettera è stata citata in un'audizione del Senato degli Stati Uniti e ha suscitato una risposta formale da parte del Parlamento europeo.

Brakel spiega a Euronews Next che l'imminente vertice globale sulla sicurezza dell'IA a Bletchley Park, nel Regno Unito, sarà una buona occasione per i governi di intervenire dove le aziende si rifiutano di frenare.

A suo avviso, la parola d'ordine finora è stata "IA generativa", ma presto potrebbe cambiare, prendendo decisioni e agendo in modo autonomo.

"Penso che questa sia forse la linea di tendenza che vediamo. Stiamo iniziando a vedere lo scraping video, podcast e Spotify (NYSE:SPOT) come fonti alternative di dati, video e voce".

Ci si avvicina al disastro?

Brakel sottolinea che, sebbene "siamo diventati un po' come "l'organizzazione delle lettere"", la FLI è stata fondata nel 2014 e ha lavorato su tre aree principali di rischio a livello di civiltà: IA, biotecnologie e armi nucleari.

Sul suo sito web è presente un video particolarmente suggestivo, un resoconto fittizio e costoso di una catastrofe globale di Al nell'anno 2032. Tra le tensioni tra Taiwan e la Cina, l'affidamento militare all'intelligenza artificiale per il processo decisionale porta a una guerra nucleare totale; il video si conclude con il pianeta illuminato da armi nucleari.

Brakel ritiene che ci siamo avvicinati a questo tipo di scenario.

"L'integrazione dell'IA nel comando e nel controllo militare sta ancora progredendo, soprattutto con le grandi potenze. Tuttavia, vedo anche un maggiore desiderio di regolamentazione da parte degli Stati, soprattutto quando si guarda all'autonomia dei sistemi di armamento convenzionali", ha affermato.

L'anno prossimo sembra promettente anche per la regolamentazione dell'autonomia in sistemi come droni, sottomarini e carri armati.

"Spero che questo permetta alle grandi potenze di raggiungere un accordo per evitare incidenti nel comando e controllo nucleare, che è un livello più sensibile rispetto alle armi convenzionali".

Regolamentazione in arrivo

Mentre le principali aziende di IA non hanno messo in stand-by la loro sperimentazione, i loro leader hanno riconosciuto i profondi rischi che l'IA e l'automazione comportano per l'umanità.

Sam Altman, amministratore delegato di OpenAI, all'inizio di quest'anno, ha invitato i politici statunitensi a istituire una regolamentazione governativa dell'IA, rivelando che i suoi "peggiori timori sono che noi, l'industria tecnologica, causiamo danni significativi al mondo". Questo potrebbe accadere in "molti modi diversi", ha aggiunto. Ha auspicato l'istituzione di un'agenzia statunitense o mondiale che conceda la licenza per i sistemi di IA più potenti.

L'Europa, tuttavia, potrebbe rivelarsi il leader nella regolamentazione dell'intelligenza artificiale, con la legge storica dell'Unione europea sull'IA in fase di elaborazione.

I dettagli finali sono ancora in fase di elaborazione tra le istituzioni dell'Unione, ma il Parlamento europeo ha votato a stragrande maggioranza con 499 voti a favore, 28 contrari e 93 astensioni.

In base alla legge, i sistemi di intelligenza artificiale saranno suddivisi in diversi livelli in base al livello di rischio, con i tipi più rischiosi vietati e i sistemi a rischio limitato che richiedono determinati livelli di trasparenza e supervisione.

"In generale siamo abbastanza soddisfatti della legge", afferma Brakel. "Una cosa che abbiamo sostenuto fin dall'inizio, quando la legge è stata proposta per la prima volta dalla Commissione, è la necessità di regolamentare i sistemi basati sui GPT. All'epoca si parlava di GPT3 e non di 4 (i modelli di trasformatori di OpenAI), ma il principio rimane lo stesso e ci troviamo di fronte a un'intensa attività di lobbying da parte delle big tech."

"Negli Stati Uniti e nell'Unione europea si parla di un'idea secondo la quale solo gli utenti dei sistemi di IA, i distributori, sanno in quale contesto vengono impiegati".

Viene citato come esempio, un ospedale che utilizza un chatbot per contattare i pazienti. "Acquisterà il chatbot da OpenAI, non lo costruirà da solo. E se poi si verifica un errore per il quale si viene ritenuti responsabili perché si è dato un consiglio medico che non si doveva dare, è chiaro che bisogna capire che tipo di prodotto si è acquistato. E una parte di questa responsabilità dovrebbe essere condivisa".

Mentre l'Europa attende la formulazione finale della legge europea sull'IA, il vertice mondiale sulla sicurezza dell'IA che si terrà il 1° novembre dovrebbe essere il prossimo evento che fornirà alcune indicazioni su come i leader di tutto il mondo si avvicineranno alla regolamentazione dell'IA nel prossimo futuro.

Ultimi commenti

Installa le nostre app
Avviso esplicito sui rischi: Il trading degli strumenti finanziari e/o di criptovalute comporta alti rischi, compreso quello di perdere in parte, o totalmente, l’importo dell’investimento, e potrebbe non essere adatto a tutti gli investitori. I prezzi delle criptovalute sono estremamente volatili e potrebbero essere influenzati da fattori esterni come eventi finanziari, normativi o politici. Il trading con margine aumenta i rischi finanziari.
Prima di decidere di fare trading con strumenti finanziari o criptovalute, è bene essere informati su rischi e costi associati al trading sui mercati finanziari, considerare attentamente i propri obiettivi di investimento, il livello di esperienza e la propensione al rischio e chiedere consigli agli esperti se necessario.
Fusion Media vi ricorda che i dati contenuti su questo sito web non sono necessariamente in tempo reale né accurati. I dati e i prezzi presenti sul sito web non sono necessariamente forniti da un mercato o da una piazza, ma possono essere forniti dai market maker; di conseguenza, i prezzi potrebbero non essere accurati ed essere differenti rispetto al prezzo reale su un dato mercato, il che significa che i prezzi sono indicativi e non adatti a scopi di trading. Fusion Media e qualunque fornitore dei dati contenuti su questo sito web non si assumono la responsabilità di eventuali perdite o danni dovuti al vostro trading né al fare affidamento sulle informazioni contenute all’interno del sito.
È vietato usare, conservare, riprodurre, mostrare, modificare, trasmettere o distribuire i dati contenuti su questo sito web senza l’esplicito consenso scritto emesso da Fusion Media e/o dal fornitore di dati. I diritti di proprietà intellettuale sono riservati da parte dei fornitori e/o dalle piazze che forniscono i dati contenuti su questo sito web.
Fusion Media può ricevere compensi da pubblicitari che compaiono sul sito web, in base alla vostra interazione con gli annunci pubblicitari o con i pubblicitari stessi.
La versione inglese di questa convenzione è da considerarsi quella ufficiale e preponderante nel caso di eventuali discrepanze rispetto a quella redatta in italiano.
© 2007-2024 - Fusion Media Limited. tutti i Diritti Riservati.