|
A proposito di semiconduttori, chiudiamo ricordando che Nvidia (NVDA) ha in fase di produzione il chip Blackwell che, rispetto al predecessore H100, aumenta di 25 volte le prestazioni di calcolo per ...
ProiezioneBorsa
-
20-12-2024
|
|
|
|
Tesla e xAI si affidano a 100.000 GPU H100 per il supercomputer AI Colossus , usato per addestrare LLM come Grok, ma i piani di espansione a 200.000 GPU sono in già in corso, con l'obiettivo di ...
Hardware Upgrade
-
20-12-2024
|
|
|
|
Nasce la GPU H100 per i data center Vai all'approfondimento Meta si è posizionata al secondo posto con 223.000 unità, seguita da Amazon con 212.000 e Google con 200.000 . Tuttavia, la competizione ...
Digital Day
-
18-12-2024
|
|
|
|
Uno dei primi ad essere lanciato è stato il chip Nvidia H100 , poi seguito da altri modelli ancor più evoluti. E dal momento che la domanda supera di gran lunga l'offerta, questi chip sono diventati ...
Il Sole 24 Ore
-
18-12-2024
|
|
|
|
Per addestrare modelli avanzati come Grok 2 , sono stati necessari circa 20mila chip Nvidia , mentre per la prossima versione, Grok 3, ne serviranno 100mila del modello H100. Questo dato non solo ...
superEva
-
13-12-2024
|
|
|
|
Al suo interno si trovano 100.000 GPU NVIDIA H100 e H200 , con piani di espansione fino a 200.000 unità. Musk ha addirittura dichiarato che il cluster potrebbe arrivare a includere fino a un milione ...
Hardware Upgrade
-
10-12-2024
|
|
|
Per l'addestramento sono state utilizzate oltre 100.000 GPU H100 di NVIDIA. Meta ha avviato la costruzione di un data center da 10 miliardi di dollari in Louisiana per l'addestramento dei futuri ...
Punto Informatico
-
8-12-2024
|
|
|
|
... alla base, per esempio, dei chip H100 utilizzati per l'addestramento di quasi tutte le più recenti reti neurali. Annunciato per la prima volta a marzo durante la conferenza Gtc, Blackwell potrebbe ...
Wired
-
8-12-2024
|
|
|
|
Già nel mese di ottobre la prima espansione che ha raddoppiato il numero totale delle GPU fino a 200.000, questa volta non solo Nvidia H100 ma anche H200. È solo l'inizio perché Elon Musk e xAI hanno ...
Macity
-
6-12-2024
|
|
|
|
Utilizzando AlphaBind tramite il framework BioNeMo su istanze Amazon EC2 P5 dotate di GPU NVIDIA H100 Tensor Core, A - Alpha Bio ha ottenuto un aumento di 12 volte della velocità di inferenza e ha ...
01Net
-
6-12-2024
|
|
|