Ultime Notizie
Investing Pro 0
Ultima chiamata per il Cyber Monday! Inizia a risparmiare su Richiedi lo SCONTO DEL 60%

Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?

Pubblicato 25.09.2023 12:28 Aggiornato 25.09.2023 12:35
Salvato. Vedi tutti gli Elementi salvati.
Questo articolo è già stato salvato nei tuoi Elementi salvati
 
© Reuters. Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?
 
AAPL
+0,29%
Aggiungi/Rimuovi dal Portafoglio
Aggiungi alla watchlist
Aggiungi Posizioni

Posizione aggiunta con successo a:

Nomina il tuo portafoglio holding
 
TSLA
-1,78%
Aggiungi/Rimuovi dal Portafoglio
Aggiungi alla watchlist
Aggiungi Posizioni

Posizione aggiunta con successo a:

Nomina il tuo portafoglio holding
 
GOOG
-1,82%
Aggiungi/Rimuovi dal Portafoglio
Aggiungi alla watchlist
Aggiungi Posizioni

Posizione aggiunta con successo a:

Nomina il tuo portafoglio holding
 
SPOT
+1,54%
Aggiungi/Rimuovi dal Portafoglio
Aggiungi alla watchlist
Aggiungi Posizioni

Posizione aggiunta con successo a:

Nomina il tuo portafoglio holding
 
GOOGL
-1,88%
Aggiungi/Rimuovi dal Portafoglio
Aggiungi alla watchlist
Aggiungi Posizioni

Posizione aggiunta con successo a:

Nomina il tuo portafoglio holding
 

**L'intelligenza artificiale (**IA) rappresenta un rischio potenzialmente esistenziale per l'umanità? Pare proprio cos', almeno secondo l'opinione del Future of Life Institute (FLI), che sei mesi fa ha pubblicato una lettera aperta per chiedere una "pausa immediata" di tutti i grandi esperimenti di IA.

La lettera è arrivata in un momento di grande interesse pubblico per l'IA generativa, quando applicazioni come ChatGPT e Midjourney hanno mostrato come la tecnologia si stia avvicinando sempre di più a replicare le capacità umane nella scrittura e nell'arte.

Per i firmatari della lettera - tra cui l'amministratore delegato di X, Tesla (NASDAQ:TSLA) e SpaceX, Elon Musk, il cofondatore di Apple (NASDAQ:AAPL), Steve Wozniak, e lo scrittore, Yuval Noah Harari - l'ascesa apparentemente improvvisa dell'intelligenza artificiale generativa ha reso necessaria una pausa. Ad aziende come OpenAI di ChatGPT e Google (NASDAQ:GOOGL) è stato chiesto di considerare i "profondi rischi per la società e l'umanità" che la loro tecnologia potrebbe creare.

È giusto dire che i principali attori non hanno premuto il pulsante "pausa".

Al contrario, altre aziende si sono unite alla corsa dell'IA generativa con i propri modelli linguistici di grandi dimensioni (LLM), con Meta che ha rilasciato Llama 2 e Anthropic che ha presentato il suo rivale di ChatGPT, Claude 2.

Che gli avvertimenti siano stati ascoltati o meno dai giganti tecnologici, la lettera della FLI ha segnato una pietra miliare in quello che si preannuncia come l'anno dell'IA.

Mark Brakel, direttore delle politiche dell'Istituto, afferma che non si aspettava di ricevere la risposta dopo quella lettera, con un'ampia copertura da parte della stampa e una rinnovata urgenza all'interno dei governi di capire come comportarsi con i rapidi progressi dell'IA.

La lettera è stata citata in un'audizione del Senato degli Stati Uniti e ha suscitato una risposta formale da parte del Parlamento europeo.

Brakel spiega a Euronews Next che l'imminente vertice globale sulla sicurezza dell'IA a Bletchley Park, nel Regno Unito, sarà una buona occasione per i governi di intervenire dove le aziende si rifiutano di frenare.

A suo avviso, la parola d'ordine finora è stata "IA generativa", ma presto potrebbe cambiare, prendendo decisioni e agendo in modo autonomo.

"Penso che questa sia forse la linea di tendenza che vediamo. Stiamo iniziando a vedere lo scraping video, podcast e Spotify (NYSE:SPOT) come fonti alternative di dati, video e voce".

Ci si avvicina al disastro?

Brakel sottolinea che, sebbene "siamo diventati un po' come "l'organizzazione delle lettere"", la FLI è stata fondata nel 2014 e ha lavorato su tre aree principali di rischio a livello di civiltà: IA, biotecnologie e armi nucleari.

Sul suo sito web è presente un video particolarmente suggestivo, un resoconto fittizio e costoso di una catastrofe globale di Al nell'anno 2032. Tra le tensioni tra Taiwan e la Cina, l'affidamento militare all'intelligenza artificiale per il processo decisionale porta a una guerra nucleare totale; il video si conclude con il pianeta illuminato da armi nucleari.

Brakel ritiene che ci siamo avvicinati a questo tipo di scenario.

"L'integrazione dell'IA nel comando e nel controllo militare sta ancora progredendo, soprattutto con le grandi potenze. Tuttavia, vedo anche un maggiore desiderio di regolamentazione da parte degli Stati, soprattutto quando si guarda all'autonomia dei sistemi di armamento convenzionali", ha affermato.

L'anno prossimo sembra promettente anche per la regolamentazione dell'autonomia in sistemi come droni, sottomarini e carri armati.

"Spero che questo permetta alle grandi potenze di raggiungere un accordo per evitare incidenti nel comando e controllo nucleare, che è un livello più sensibile rispetto alle armi convenzionali".

Regolamentazione in arrivo

Mentre le principali aziende di IA non hanno messo in stand-by la loro sperimentazione, i loro leader hanno riconosciuto i profondi rischi che l'IA e l'automazione comportano per l'umanità.

Sam Altman, amministratore delegato di OpenAI, all'inizio di quest'anno, ha invitato i politici statunitensi a istituire una regolamentazione governativa dell'IA, rivelando che i suoi "peggiori timori sono che noi, l'industria tecnologica, causiamo danni significativi al mondo". Questo potrebbe accadere in "molti modi diversi", ha aggiunto. Ha auspicato l'istituzione di un'agenzia statunitense o mondiale che conceda la licenza per i sistemi di IA più potenti.

L'Europa, tuttavia, potrebbe rivelarsi il leader nella regolamentazione dell'intelligenza artificiale, con la legge storica dell'Unione europea sull'IA in fase di elaborazione.

I dettagli finali sono ancora in fase di elaborazione tra le istituzioni dell'Unione, ma il Parlamento europeo ha votato a stragrande maggioranza con 499 voti a favore, 28 contrari e 93 astensioni.

In base alla legge, i sistemi di intelligenza artificiale saranno suddivisi in diversi livelli in base al livello di rischio, con i tipi più rischiosi vietati e i sistemi a rischio limitato che richiedono determinati livelli di trasparenza e supervisione.

"In generale siamo abbastanza soddisfatti della legge", afferma Brakel. "Una cosa che abbiamo sostenuto fin dall'inizio, quando la legge è stata proposta per la prima volta dalla Commissione, è la necessità di regolamentare i sistemi basati sui GPT. All'epoca si parlava di GPT3 e non di 4 (i modelli di trasformatori di OpenAI), ma il principio rimane lo stesso e ci troviamo di fronte a un'intensa attività di lobbying da parte delle big tech."

"Negli Stati Uniti e nell'Unione europea si parla di un'idea secondo la quale solo gli utenti dei sistemi di IA, i distributori, sanno in quale contesto vengono impiegati".

Viene citato come esempio, un ospedale che utilizza un chatbot per contattare i pazienti. "Acquisterà il chatbot da OpenAI, non lo costruirà da solo. E se poi si verifica un errore per il quale si viene ritenuti responsabili perché si è dato un consiglio medico che non si doveva dare, è chiaro che bisogna capire che tipo di prodotto si è acquistato. E una parte di questa responsabilità dovrebbe essere condivisa".

Mentre l'Europa attende la formulazione finale della legge europea sull'IA, il vertice mondiale sulla sicurezza dell'IA che si terrà il 1° novembre dovrebbe essere il prossimo evento che fornirà alcune indicazioni su come i leader di tutto il mondo si avvicineranno alla regolamentazione dell'IA nel prossimo futuro.

Sei mesi fa gli esperti hanno chiesto una pausa agli esperimenti sull'IA. A che punto siamo?
 

Articoli Correlati

Inserisci un commento

Guida sui Commenti

Ti consigliamo di utilizzare i commenti per interagire con gli utenti, condividere il tuo punto di vista e porre domande agli autori e agli altri iscritti. Comunque, per mantenere alto il livello del discorso, ti preghiamo di tenere a mente i seguenti criteri :

  • Arricchisci la conversazione
  • Rimani concentrato. Pubblica solo materiale che è rilevante all'argomento in discussione.
  • Sii rispettoso. Anche le opinioni negative possono essere trattate in modo positivo e diplomatico.
  • Utilizza lo stile standard di scrittura. Includi la punteggiatura,con lettere maiuscole e minuscole.
  • NOTA: messaggi contenenti spam, messaggi promozionali, link o riferimenti a siti esterni verranno rimossi.
  • Evita bestemmie, calunnie e gli attacchi personali rivolti a un autore o ad un altro utente.
  • Saranno consentiti solo commenti in Italiano.

Autori di spam o abuso verranno eliminati dal sito e vietati dalla registrazione futura a discrezione di Investing.com.

Scrivi I tuoi pensieri qui
 
Sei sicuro di voler cancellare questo grafico?
 
Posta
Pubblica anche su
 
Sostituire il grafico allegato con un nuovo grafico?
1000
La tua possibilità di commentare è stata sospesa per via di report negativi da parte di altri utenti. La tua situazione sarà controllata dai nostri moderatori.
Attendi un minuto prima di commentare di nuovo.
Grazie per aver commentato. Il commento è in attesa di approvazione da parte dei moderatori. Il commento sarà pubblicato sul nostro sito non appena approvato.
 
Sei sicuro di voler cancellare questo grafico?
 
Posta
 
Sostituire il grafico allegato con un nuovo grafico?
1000
La tua possibilità di commentare è stata sospesa per via di report negativi da parte di altri utenti. La tua situazione sarà controllata dai nostri moderatori.
Attendi un minuto prima di commentare di nuovo.
Allega un Grafico ai Commenti
Conferma blocco

Sei sicuro di voler bloccare %USER_NAME%?

Confermando il blocco tu e %USER_NAME% non potrete più vedere reciprocamente i vostri post su Investing.com.

%USER_NAME% è stato aggiunto correttamente alla lista di utenti bloccati

Poiché hai appena sbloccato questa persona, devi aspettare 48 ore prima di bloccarla nuovamente.

Segnala questo commento

Considero questo commento come:

Commento contrassegnato

Grazie!

La tua segnalazione è stata inviata ai nostri moderatori che la esamineranno
Registrati tramite Google
o
Registrati tramite email