La mémoire GPU partagée est l’une des fonctionnalités offertes par certaines cartes graphiques modernes, en particulier celles basées sur l’ architecture NVIDIA Turing ou AMD RDNA. Cette fonctionnalité permet à la carte graphique d’utiliser une partie de la mémoire système (RAM) en plus ou en réserve de la mémoire vidéo (VRAM) connectée à la carte graphique elle-même.
Ainsi, la carte graphique peut disposer de plus d’espace pour stocker des données graphiques, telles que des textures, des shaders et des tampons d’images, ce qui peut améliorer les performances et la qualité graphiques dans certains scénarios.
Cependant, cette fonctionnalité présente également certains inconvénients et limitations que vous devez connaître avant de l’utiliser. Dans cet article, nous allons vous expliquer ce qu‘est la mémoire GPU partagée, comment elle fonctionne, quand vous devez l’utiliser et quels sont ses avantages et ses inconvénients.

Comment fonctionne la mémoire GPU partagée ?
Pour comprendre le fonctionnement de la mémoire GPU partagée, nous devons connaître quelques concepts de base sur la mémoire et les cartes graphiques. En termes simples, la mémoire est l’endroit où les données sont stockées et accessibles par le processeur, à la fois le CPU et le GPU. Il existe différentes mémoires, telles que la DRAM, la SRAM, la GDDR, la HBM et d’autres, qui ont des caractéristiques et des fonctions différentes.
La mémoire système, ou RAM, est le type de mémoire le plus couramment utilisé par le processeur pour stocker et récupérer des données. La RAM utilise généralement la technologie DRAM, c’est-à-dire une mémoire dynamique à accès aléatoire. Cela signifie que les données peuvent être consultées de manière aléatoire à partir de n’importe quel endroit de la mémoire sans avoir à suivre une séquence spécifique. Cependant, cela signifie également que les données seront perdues si aucune alimentation ne circule dans la mémoire.
La mémoire vidéo, ou VRAM, est un type de mémoire spécifiquement utilisé par les GPU pour stocker et récupérer des données graphiques. La VRAM utilise généralement la technologie GDDR ou HBM, qui sont des variantes de la DRAM optimisées pour une vitesse et une bande passante élevées. Cela signifie que les données peuvent être déplacées rapidement entre le GPU et la VRAM, ce qui est important pour produire des images avec une résolution et des fréquences d’images élevées. Cependant, cela signifie également que la VRAM est plus chère et plus difficile à produire que la RAM.
La carte graphique est le matériel responsable du traitement des données graphiques et de leur envoi au moniteur. Les cartes graphiques ont généralement un GPU, une VRAM et d’autres composants attachés à une carte de circuit imprimé. Le GPU est le cerveau de la carte graphique, qui effectue des calculs mathématiques complexes pour produire des images. La VRAM est l’endroit où le GPU stocke les données graphiques nécessaires à la production de l’image, telles que les textures, les shaders et les tampons d’images.
Voyons maintenant comment fonctionne la mémoire GPU partagée. Par défaut, le GPU ne peut utiliser que la VRAM connectée à la carte graphique comme source de mémoire. La quantité de VRAM disponible dépend du modèle et des spécifications de la carte graphique. Par exemple, la carte graphique NVIDIA GeForce RTX 3080 dispose de 10 Go de VRAM, tandis que la carte graphique AMD Radeon RX 6800 dispose de 16 Go de VRAM.
Cependant, il existe des cas où la VRAM disponible n’est pas suffisante pour stocker toutes les données graphiques requises par le GPU. Par exemple, si vous exécutez un jeu ou une application graphique très exigeante, ou si vous utilisez des résolutions ou des paramètres graphiques très élevés, vous pouvez rencontrer un phénomène appelé goulot d’ étranglement de la VRAM. Cela signifie que la VRAM devient pleine et ne peut pas contenir plus de données, ce qui peut entraîner une diminution des performances et de la qualité graphique, comme le bégaiement, le claquement ou les artefacts.
Pour résoudre ce problème, certaines cartes graphiques modernes offrent une fonction de mémoire GPU partagée, qui permet au GPU d’utiliser une partie de la RAM en plus ou de réserver pour la VRAM. Ainsi, le GPU peut disposer de plus d’espace pour stocker les données graphiques, ce qui peut améliorer les performances et la qualité graphique dans certains scénarios.
Le fonctionnement de la mémoire GPU partagée est le suivant :
- Tout d’abord, le GPU essaiera de stocker toutes les données graphiques dont il a besoin dans la VRAM, comme d’habitude.
- Deuxièmement, si la VRAM devient pleine et ne peut pas contenir plus de données, le GPU récupère les données graphiques moins importantes ou rarement utilisées et les déplace vers la RAM. Les données graphiques transférées vers la RAM sont appelées mémoire GPU partagée.
- Troisièmement, si le GPU a besoin de données graphiques qui ont été déplacées vers la RAM, il les récupérera de la RAM et les déplacera vers la VRAM. Ce processus s’appelle l’échange de mémoire.
De cette façon, le GPU peut utiliser la RAM comme source de mémoire alternative, ce qui peut augmenter la quantité de données graphiques que le GPU peut stocker et auxquelles il peut accéder.