I più recenti chip di memoria ad alta velocità di Samsung Electronics, noti come memorie ad alta larghezza di banda (HBM), stanno incontrando difficoltà nel soddisfare gli standard di prova stabiliti da Nvidia (NVDA) per l'utilizzo nei suoi processori di intelligenza artificiale. Le difficoltà sono dovute a problemi di surriscaldamento e a un eccessivo consumo di energia elettrica, come riportato venerdì da Reuters, che attribuisce queste informazioni a persone a conoscenza della situazione.
I problemi riguardano in particolare i chip HBM3 di Samsung, che rappresentano la quarta generazione di questa tecnologia e sono ampiamente utilizzati nelle unità di elaborazione grafica (GPU) per applicazioni di intelligenza artificiale. Inoltre, i problemi si estendono ai prossimi chip HBM3E, che rappresentano la quinta generazione e il cui rilascio da parte di Samsung e dei suoi rivali del settore è previsto entro quest'anno.
Reuters ha rivelato per la prima volta le ragioni specifiche per cui i chip di memoria di Samsung non hanno soddisfatto i criteri di test stabiliti da Nvidia.
In risposta, Samsung ha comunicato all'agenzia di stampa che l'HBM è un prodotto di memoria specializzato che richiede un processo di ottimizzazione che deve essere allineato con i requisiti unici di ogni cliente. Samsung ha anche sottolineato che è impegnata nel continuo miglioramento del prodotto attraverso la cooperazione diretta con i suoi clienti.
In un'altra dichiarazione, l'azienda sudcoreana leader nel settore dell'elettronica ha smentito le accuse secondo cui i suoi chip non avrebbero superato i test a causa del surriscaldamento e dell'elevato consumo di energia, insistendo sul fatto che il processo di test sta procedendo senza problemi ed è in linea con i tempi previsti.
Gli analisti finanziari di Wells Fargo hanno interpretato questi sviluppi come potenzialmente vantaggiosi per Micron (MU), un altro importante fornitore di chip HBM.
Inoltre, questi analisti prevedono che la notizia possa far riaffiorare le preoccupazioni relative alla situazione delle forniture di HBM3 presso AMD (NASDAQ:AMD). Il produttore di semiconduttori ha dichiarato in precedenza di essersi assicurato una fornitura sufficiente di HBM3 per raggiungere il suo obiettivo di vendita per la GPU MI300A/X, che si prevede supererà i 4 miliardi di dollari entro il 2024.
"All'inizio di quest'anno, ci sono state indicazioni che AMD ha progettato le sue GPU MI300 per essere compatibili con HBM3E. Questo ci porta a ipotizzare un potenziale aggiornamento della MI300 con HBM3E nella seconda metà del 2024. Riteniamo che le soluzioni di memoria HBM3E di Micron possano essere certificate per l'uso", suggeriscono gli analisti di Wells Fargo.
Questo articolo è stato prodotto e tradotto con l'aiuto dell'intelligenza artificiale ed è stato successivamente revisionato da un redattore. Per ulteriori dettagli, consultare i nostri Termini e condizioni.