
Per Favore, prova con una nuova ricerca
**L'intelligenza artificiale (**IA) rappresenta un rischio potenzialmente esistenziale per l'umanità? Pare proprio cos', almeno secondo l'opinione del Future of Life Institute (FLI), che sei mesi fa ha pubblicato una lettera aperta per chiedere una "pausa immediata" di tutti i grandi esperimenti di IA.
La lettera è arrivata in un momento di grande interesse pubblico per l'IA generativa, quando applicazioni come ChatGPT e Midjourney hanno mostrato come la tecnologia si stia avvicinando sempre di più a replicare le capacità umane nella scrittura e nell'arte.
Per i firmatari della lettera - tra cui l'amministratore delegato di X, Tesla (NASDAQ:TSLA) e SpaceX, Elon Musk, il cofondatore di Apple (NASDAQ:AAPL), Steve Wozniak, e lo scrittore, Yuval Noah Harari - l'ascesa apparentemente improvvisa dell'intelligenza artificiale generativa ha reso necessaria una pausa. Ad aziende come OpenAI di ChatGPT e Google (NASDAQ:GOOGL) è stato chiesto di considerare i "profondi rischi per la società e l'umanità" che la loro tecnologia potrebbe creare.
È giusto dire che i principali attori non hanno premuto il pulsante "pausa".
Al contrario, altre aziende si sono unite alla corsa dell'IA generativa con i propri modelli linguistici di grandi dimensioni (LLM), con Meta che ha rilasciato Llama 2 e Anthropic che ha presentato il suo rivale di ChatGPT, Claude 2.
Che gli avvertimenti siano stati ascoltati o meno dai giganti tecnologici, la lettera della FLI ha segnato una pietra miliare in quello che si preannuncia come l'anno dell'IA.
Mark Brakel, direttore delle politiche dell'Istituto, afferma che non si aspettava di ricevere la risposta dopo quella lettera, con un'ampia copertura da parte della stampa e una rinnovata urgenza all'interno dei governi di capire come comportarsi con i rapidi progressi dell'IA.
La lettera è stata citata in un'audizione del Senato degli Stati Uniti e ha suscitato una risposta formale da parte del Parlamento europeo.
Brakel spiega a Euronews Next che l'imminente vertice globale sulla sicurezza dell'IA a Bletchley Park, nel Regno Unito, sarà una buona occasione per i governi di intervenire dove le aziende si rifiutano di frenare.
A suo avviso, la parola d'ordine finora è stata "IA generativa", ma presto potrebbe cambiare, prendendo decisioni e agendo in modo autonomo.
"Penso che questa sia forse la linea di tendenza che vediamo. Stiamo iniziando a vedere lo scraping video, podcast e Spotify (NYSE:SPOT) come fonti alternative di dati, video e voce".
Sul suo sito web è presente un video particolarmente suggestivo, un resoconto fittizio e costoso di una catastrofe globale di Al nell'anno 2032. Tra le tensioni tra Taiwan e la Cina, l'affidamento militare all'intelligenza artificiale per il processo decisionale porta a una guerra nucleare totale; il video si conclude con il pianeta illuminato da armi nucleari.
Brakel ritiene che ci siamo avvicinati a questo tipo di scenario.
"L'integrazione dell'IA nel comando e nel controllo militare sta ancora progredendo, soprattutto con le grandi potenze. Tuttavia, vedo anche un maggiore desiderio di regolamentazione da parte degli Stati, soprattutto quando si guarda all'autonomia dei sistemi di armamento convenzionali", ha affermato.
L'anno prossimo sembra promettente anche per la regolamentazione dell'autonomia in sistemi come droni, sottomarini e carri armati.
"Spero che questo permetta alle grandi potenze di raggiungere un accordo per evitare incidenti nel comando e controllo nucleare, che è un livello più sensibile rispetto alle armi convenzionali".
Sam Altman, amministratore delegato di OpenAI, all'inizio di quest'anno, ha invitato i politici statunitensi a istituire una regolamentazione governativa dell'IA, rivelando che i suoi "peggiori timori sono che noi, l'industria tecnologica, causiamo danni significativi al mondo". Questo potrebbe accadere in "molti modi diversi", ha aggiunto. Ha auspicato l'istituzione di un'agenzia statunitense o mondiale che conceda la licenza per i sistemi di IA più potenti.
L'Europa, tuttavia, potrebbe rivelarsi il leader nella regolamentazione dell'intelligenza artificiale, con la legge storica dell'Unione europea sull'IA in fase di elaborazione.
I dettagli finali sono ancora in fase di elaborazione tra le istituzioni dell'Unione, ma il Parlamento europeo ha votato a stragrande maggioranza con 499 voti a favore, 28 contrari e 93 astensioni.
In base alla legge, i sistemi di intelligenza artificiale saranno suddivisi in diversi livelli in base al livello di rischio, con i tipi più rischiosi vietati e i sistemi a rischio limitato che richiedono determinati livelli di trasparenza e supervisione.
"In generale siamo abbastanza soddisfatti della legge", afferma Brakel. "Una cosa che abbiamo sostenuto fin dall'inizio, quando la legge è stata proposta per la prima volta dalla Commissione, è la necessità di regolamentare i sistemi basati sui GPT. All'epoca si parlava di GPT3 e non di 4 (i modelli di trasformatori di OpenAI), ma il principio rimane lo stesso e ci troviamo di fronte a un'intensa attività di lobbying da parte delle big tech."
"Negli Stati Uniti e nell'Unione europea si parla di un'idea secondo la quale solo gli utenti dei sistemi di IA, i distributori, sanno in quale contesto vengono impiegati".
Viene citato come esempio, un ospedale che utilizza un chatbot per contattare i pazienti. "Acquisterà il chatbot da OpenAI, non lo costruirà da solo. E se poi si verifica un errore per il quale si viene ritenuti responsabili perché si è dato un consiglio medico che non si doveva dare, è chiaro che bisogna capire che tipo di prodotto si è acquistato. E una parte di questa responsabilità dovrebbe essere condivisa".
Mentre l'Europa attende la formulazione finale della legge europea sull'IA, il vertice mondiale sulla sicurezza dell'IA che si terrà il 1° novembre dovrebbe essere il prossimo evento che fornirà alcune indicazioni su come i leader di tutto il mondo si avvicineranno alla regolamentazione dell'IA nel prossimo futuro.
Sei sicuro di voler bloccare %USER_NAME%?
Confermando il blocco tu e %USER_NAME% non potrete più vedere reciprocamente i vostri post su Investing.com.
%USER_NAME% è stato aggiunto correttamente alla lista di utenti bloccati
Poiché hai appena sbloccato questa persona, devi aspettare 48 ore prima di bloccarla nuovamente.
Considero questo commento come:
Grazie!
La tua segnalazione è stata inviata ai nostri moderatori che la esamineranno
Inserisci un commento
Ti consigliamo di utilizzare i commenti per interagire con gli utenti, condividere il tuo punto di vista e porre domande agli autori e agli altri iscritti. Comunque, per mantenere alto il livello del discorso, ti preghiamo di tenere a mente i seguenti criteri :
Autori di spam o abuso verranno eliminati dal sito e vietati dalla registrazione futura a discrezione di Investing.com.