Cerebras Systems, una startup con sede negli Stati Uniti, ha lanciato il più grande chip che integra più di 1.200 miliardi di transistor e ha una dimensione di 46.225 millimetri quadrati. Il nuovo chip Cerebras Wafer Scale Engine (WSE) è ottimizzato per l' IA ed è 56,7 volte più grande della più grande unità di elaborazione grafica che misura 815 millimetri quadrati e contiene 21,1 miliardi di transistor. Il nuovo Cerebras Wafer Scale Engine (WSE) fornisce una memoria su chip ad alta velocità 3.000 volte superiore e viene fornito con una larghezza di banda di memoria 10.000 volte maggiore. La dimensione maggiore del chip garantisce che le informazioni possano essere elaborate più rapidamente e può persino ridurre il tempo per la comprensione, o "tempo di formazione", che consente ai ricercatori di testare più idee, utilizzare più dati e risolvere nuovi problemi.
Cerebras WSE è progettato per l'intelligenza artificiale e contiene innovazioni fondamentali che fanno avanzare lo stato dell'arte risolvendo sfide tecniche vecchie di decenni che sono dimensioni limitate del chip, come connettività a reticolo incrociato, resa, erogazione di potenza e imballaggio. Il WSE può accelerare i calcoli e le comunicazioni, riducendo i tempi di formazione. Il WSE ha un'area di silicio 56,7 volte maggiore rispetto all'unità di elaborazione grafica più grande. Inoltre, il WSE può fornire più core per eseguire più calcoli e dispone di più memoria più vicina ai core, in modo che i core possano funzionare in modo efficiente. Tutta la comunicazione è mantenuta sul silicio stesso a causa della sua vasta gamma di core e la memoria è incorporata su un singolo chip.
Il chip Cerebras WSE contiene 46.225mm2 di silicio e ospita 400.000 core di elaborazione ottimizzati per AI, senza cache, senza overhead e 18 gigabyte di memoria SRAM locale, distribuita e superveloce. Il chip è dotato di 9 petabyte al secondo di larghezza di banda di memoria in cui i core sono collegati tra loro con una rete di comunicazione a grana fine, interamente hardware e collegata a maglie su chip che fornisce una larghezza di banda aggregata di 100 petabit al secondo. Ciò significa che la larghezza di banda di comunicazione a bassa latenza di WSE è estremamente ampia, il che fa sì che i gruppi di core collaborino con la massima efficienza e la larghezza di banda della memoria non è più un collo di bottiglia. Più memoria locale, più core e un fabric con larghezza di banda elevata a bassa latenza combinati insieme formano l'architettura ottimale per accelerare il lavoro di intelligenza artificiale.
Le caratteristiche del chip Cerebras WSE:
- Core aumentati: il WSE integra 400.000 core di calcolo ottimizzati per AI chiamati SLAC (Sparse Linear Algebra Cores) che sono programmabili, flessibili e ottimizzati per l'algebra lineare sparsa che è alla base di tutto il calcolo della rete neurale. La funzione di programmabilità di SLAC garantisce che i core possano eseguire facilmente tutti gli algoritmi di rete neurale in un campo di apprendimento automatico in continua evoluzione. I core WSE incorporano la tecnologia di raccolta della scarsità inventata da Cerebras che accelera le prestazioni di calcolo su carichi di lavoro sparsi (carichi di lavoro che contengono zeri) come il deep learning.
- Memoria migliorata: Cerebras WSE integra più memoria locale insieme a più core, più di qualsiasi chip che consente un calcolo flessibile e veloce con una latenza inferiore e con meno energia. Il WSE viene fornito con 18 GB (Gigabyte) di memoria su chip accessibile dal suo core in un ciclo di clock. Questa raccolta di memoria core-locale consente a WSE di fornire un aggregato di 9 petabyte al secondo di larghezza di banda della memoria, che è 10.000 X più larghezza di banda della memoria e 3.000 X