Notebookcheck Logo

Samsung achève le développement de HBM-PIM, la première mémoire haute bande passante du secteur avec processeur AI sur puce

Les puces HBM-PMI sont dotées d'un processeur AI intégré. (Source de l'image : Samsung)
Les puces HBM-PMI sont dotées d'un processeur AI intégré. (Source de l'image : Samsung)
Les nouvelles puces HBM-PIM offriront des performances système plus de deux fois supérieures à celles des solutions HBM2 actuelles et réduiront la consommation d'énergie de plus de 70 %. Samsung a conçu cette nouvelle architecture de mémoire afin d'accélérer le traitement à grande échelle dans les centres de données, les systèmes informatiques à haute performance et les applications mobiles compatibles avec l'IA.

Si l'on considère uniquement les performances brutes et les besoins en énergie, la mémoire HBM (High Bandwidth Memory) est le choix supérieur à la GDDR en matière de mémoire vive graphique. Cependant, Nvidia et AMD ne proposent toujours pas de HBM sur leurs GPU de jeux grand public et réservent cette option uniquement aux cartes de calcul haut de gamme qui sont principalement utilisées dans les applications d'IA et les environnements HPC. En effet, la GDDR est plus de 50% plus abordable à mettre en œuvre aux prix actuels du marché. Samsung, l'un des principaux producteurs de HBM, pourrait contribuer à faire baisser le prix des puces HBM "ordinaires", car elle se prépare maintenant à lancer l'architecture HBM-PIM (traitement en mémoire) plus avancée.

Chaque nouvelle puce HBM-PIM intègre un composant de traitement AI qui double essentiellement les performances des solutions HBM2 Aquabolt ordinaires tout en réduisant la consommation d'énergie de plus de 70 %. Le processeur AI sur puce peut être programmé et adapté pour diverses charges de travail liées à l'AI, y compris la formation et l'inférence. Kwangil Park, vice-président senior de la planification des produits de mémoire de Samsung, a déclaré que la société est prête à collaborer avec les fournisseurs de solutions d'IA pour le développement d'applications PIM encore plus avancées.

Dans son communiqué de presse, Samsung explique comment les processeurs d'IA sur puce peuvent contribuer à doubler les performances. "La plupart des systèmes informatiques actuels sont basés sur l'architecture von Neumann, qui utilise des unités de processeur et de mémoire séparées pour effectuer des millions de tâches de traitement de données complexes. Cette approche de traitement séquentiel exige que les données se déplacent constamment d'avant en arrière, ce qui entraîne un goulot d'étranglement dans le système, en particulier lors du traitement de volumes de données toujours plus importants. Au lieu de cela, le HBM-PIM apporte la puissance de traitement directement là où les données sont stockées en plaçant un moteur AI optimisé par DRAM à l'intérieur de chaque banque de mémoire - une sous-unité de stockage - permettant un traitement parallèle et minimisant le mouvement des données"

Un autre grand avantage de l'architecture HBM-PIM est qu'elle ne nécessite pas de modifications matérielles ou logicielles, il n'y a donc pas de coûts supplémentaires d'intégration ou de déploiement avec les systèmes existants. Samsung indique que les puces HBM-PIM sont actuellement testées à l'intérieur des accélérateurs AI par les principaux partenaires de solutions AI et que toutes les validations devraient être terminées d'ici la fin du premier semestre 2021.

 

Acheter la carte de calcul AMD Radeon Instinct MI25 sur Amazon

Source(s)

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2021 02 > Samsung achève le développement de HBM-PIM, la première mémoire haute bande passante du secteur avec processeur AI sur puce
Bogdan Solca, 2021-02-18 (Update: 2021-02-18)