GDDR5 — Wikipédia

La GDDR5 SDRAM (Graphics Double Data Rate, version 5) est un type de mémoire pour carte graphique qui se présente comme le successeur de la GDDR4[1]. Elle est disponible depuis pour le grand public dans certaines cartes graphiques de la firme ATI Technologies ainsi que dans toutes les cartes haut de gamme NVidia[2].

Hynix Semiconductor a introduit dans l’industrie la première barrette de Gio de GDDR5, supportant une bande passante de 20 Go/s sur un bus de 32 octets, ce qui autorise des configurations de mémoire de 1 Gio à 160 Go/s avec seulement 8 circuits sur un bus de 256 bits.

Depuis lors de la sortie des cartes graphiques Radeon HD 4850 et 4870, la GDDR5 est utilisée dans les ATI Radeon à partir du milieu de gamme. La mémoire Qimonda offre une fréquence de 1,8 GHz dans ce dernier modèle.

La firme Nvidia a commercialisé cette mémoire graphique en en sortant le GT216[3].

La PlayStation 4 de Sony utilise 8 Gigaoctets de GDDR5, alors que sa rivale, la Xbox One de Microsoft, utilise la même quantité de DDR3, ce qui donnerait un avantage à la première[4].

En janvier 2016, le JEDEC a standardisé la SGRAM GDDR5X[5]. La GDDR5X vise une vitesse de transfert de 10 à 14 Gbit/s par broche, le double de la GDDR5[6]. Essentiellement, elle offre la possibilité au contrôleur de mémoire d'utiliser soit un mode double data rate qui a une mémoire tampon de prélecture de 8n, soit un mode quad data rate qui a une mémoire de prélecture de 16n[7]. La GDDR5 a seulement un mode double data rate et une mémoire de prélecture de 8n[8]. La GDDR5X possède également 190 broches par puce (190 BGA)[7]. Par comparaison, la GDDR5 standard a 170 broches par puce (170 BGA)[8]. Elle nécessite donc un PCB modifié.

Commercialisation

[modifier | modifier le code]
GDDR5X sur la carte graphique 1080 Ti

Micron Technology a commencé à échantillonner les puces GDDR5X en mars 2016[9], et a commencé la production de masse en mai 2016[10].

Nvidia a officiellement annoncé la première carte graphique utilisant la GDDR5X, la GeForce GTX 1080 basée sur l'architecture Pascal le 6 mai 2016[11]. Les cartes graphiques utilisant la GDDR5X furent ensuite la Nvidia Titan X le 21 juillet 2016[12], la GeForce GTX 1080 Ti le 28 février 2017[13] et la Nvidia Titan Xp le 6 avril 2017[14].

Notes et références

[modifier | modifier le code]
  1. (en) GDDR5 Pinout and Description, sur le site interfacebus.com, consulté le 21 décembre 2015.
  2. (en) « AMD Radeon HD 4800 en GDDR5 », Techconnect Magazine, .
  3. AMD et Nvidia, quelque part en juin 2009, Le comptoir du hardware, publié le 16 octobre 2008.
  4. « PS4 vs. Xbox One : les caractéristiques techniques », sur tomshardware.fr, (consulté le ).
  5. (en) « JEDEC Announces Publication of GDDR5X Graphics Memory Standard », JEDEC, (consulté le )
  6. (en) « JEDEC Publishes GDDR5X Specifications – Double the Bandwidth of GDDR5 With Lowered Power Consumption » (consulté le )
  7. a et b (en) « GDDR5X SGRAM: MT58K256M32 – 16 Meg x 32 I/O x 16 banks, 32 Meg x 16 I/O x 16 banks » [archive du ], Micron Technology, (consulté le )
  8. a et b (en) « GDDR5 SGRAM: MT51J256M32 – 16 Meg x 32 I/O x 16 banks, 32 Meg x 16 I/O x 16 banks » [archive du ], Micron Technology, (consulté le )
  9. (en) Anton Shilov, « Micron Begins to Sample GDDR5X Memory, Unveils Specs of Chips », AnandTech, (consulté le )
  10. (en) Anton Shilov, « Micron Confirms Mass Production of GDDR5X Memory », AnandTech, (consulté le )
  11. (en) NVIDIA Newsroom, « A Quantum Leap in Gaming: NVIDIA Introduces GeForce GTX 1080 », sur NVIDIA Newsroom Newsroom
  12. (en) « The New NVIDIA TITAN X: The Ultimate. Period. - The Official NVIDIA Blog », sur nvidia.com,
  13. (en) NVIDIA Newsroom, « NVIDIA Introduces the Beastly GeForce GTX 1080 Ti -- Fastest Gaming GPU Ever », sur NVIDIA Newsroom Newsroom
  14. (en) « The New Titan Is Here: NVIDIA TITAN Xp - NVIDIA Blog », sur nvidia.com,

Articles connexes

[modifier | modifier le code]