|
Mentre i tradizionali modelli in floating point (FP16 o FP32) richiedono 16 o 32 bit per ciascun peso, MXFP4 riesce a rappresentare ogni parametro usando in media appena 4,25 bit . In altre parole, ...
Digital Day
-
6-8-2025
|
|
|
|
Il supporto ai formati FP8, FP16 e INT8 rende la piattaforma adatta anche al training di modelli AI di medie e grandi dimensioni. I migliori sconti su Amazon oggi - 53% Amazfit GTR 3, 46 mm, ...
Hardware Upgrade
-
26-7-2025
|
|
|
|
64 unità di calcolo, 128 acceleratori AI di seconda generazione e precisione FP8, FP16 e INT8 forniscono agli sviluppatori la potenza di calcolo necessaria per gestire i carichi di lavoro AI più ...
01Net
-
25-7-2025
|
|
|
|
Con i passaggi da Hopper (H100) a Blackwell (B200), fino a Blackwell Ultra (B300), e in futuro Rubin e Feynman , le prestazioni per l'addestramento AI in BF16 e FP16 sono raddoppiate a ogni ...
Hardware Upgrade
-
24-7-2025
|
|
|
|
Dopo la presentazione al Computex 2024 del modello SDXL Turbo - il primo modello Stable Diffusion block FP16 al mondo - AMD rinnova il proprio impegno nell'AI generativa con il lancio di un modello ...
Hardware Upgrade
-
22-7-2025
|
|
|
|
La scheda, basata su architettura RDNA 4, è dotata di 32 GB di memoria GDDR6 , 64 Compute Unit, 128 AI Accelerator di seconda generazione e supporto per FP8, FP16 e INT8. Clicca per ingrandire Clicca ...
Hardware Upgrade
-
18-7-2025
|
|
|
|
|
|
Gli articoli sono stati selezionati e posizionati in questa pagina in modo automatico.
L'ora o la data visualizzate si riferiscono al momento in cui l'articolo è stato aggiunto o aggiornato in Libero 24x7