La première itération de mémoire à large bande passante (HBM) était limitée à une vitesse maximale de 128 Go/s par pile. Mais il y a une mise en garde majeure : en raison de limitations physiques, les cartes graphiques utilisant le HBM1 sont limitées à 4 Go de mémoire.

Au fil du temps, les fabricants de HBM tels que SKHynix et Samsung ont amélioré les défauts de HBM. La première mise à jour, HBM2, a doublé les vitesses potentielles à 256 Go/s par pile, portant la capacité maximale à 8 Go. En 2018, le HBM2 a été légèrement mis à jour (HBM2E), la limite de capacité a encore été augmentée à 24 Go et la vitesse a également été à nouveau augmentée, pour finalement atteindre un pic de 460 Go/s par puce.

Après le lancement de HBM3, la vitesse a encore doublé, atteignant une vitesse maximale de 819 Go/s par pile. Plus impressionnant encore, la capacité a presque triplé, passant de 24 Go à 64 Go. Comme HBM2E, HBM3 bénéficie d'une autre mise à niveau à mi-cycle, HBM3E, qui augmente les vitesses théoriques à 1,2 To/s par pile.

Au fil du temps, la mémoire HBM des cartes graphiques grand public a été progressivement remplacée par une mémoire GDDR à un prix plus compétitif. La mémoire à large bande passante devient la norme dans les centres de données et les fabricants de cartes graphiques sur le lieu de travail choisissent d'utiliser des interfaces plus rapides.

Au milieu de diverses mises à jour et améliorations, HBM conserve la même interface 1024 bits (par pile) dans toutes les itérations. Selon un rapport sud-coréen, cela pourrait enfin changer lorsque le HBM4 arrivera sur le marché. Si les rapports sont vrais, l'interface mémoire doublera, passant de 1 024 bits à 2 048 bits.

En théorie, passer à une interface 2048 bits pourrait à nouveau doubler les vitesses de transfert. Malheureusement, les fabricants de mémoire ne seront peut-être pas en mesure de maintenir les mêmes taux de transfert avec le HBM4 qu'avec le HBM3E. Cependant, des interfaces de mémoire plus élevées permettent aux fabricants d'utiliser moins d'empilement dans les cartes graphiques.

Par exemple, la carte graphique IA phare de NVIDIA, H100, utilise actuellement six puces empilées de 1 024 bits, permettant une interface de 6 144 bits. Si l'interface mémoire était doublée à 2048 bits, NVIDIA pourrait théoriquement réduire de moitié le nombre de puces à trois et obtenir les mêmes performances. Bien sûr, on ne sait pas quelle approche les fabricants adopteront, car le HBM4 n'entrera certainement pas en production avant plusieurs années.

Actuellement, SK Hynix et Samsung estiment que lorsqu'ils commenceront à produire du HBM4, ils seront en mesure d'atteindre un « rendement de 100 % ». Seul le temps nous dira si ces rapports tiennent le coup, alors traitez ces nouvelles avec prudence.

accéder:

Centre commercial de Jingdong