Lancer Shadow PC in Browser

Mon Shadow Drive

Mon Compte

L’Histoire du jeu vidéo : l’évolution des cartes graphiques

Une carte graphique puissante est obligatoire pour lancer les jeux récents - mais que savez-vous de sa longue histoire ?

L’immense bond en avant des graphismes

La carte graphique - ou GPU comme l’appellent aussi les experts - a considérablement évolué au cours des dernières décennies. De ses débuts en tant que matériel prédéfini qui ne servait qu'à un seul but (donner vie à la 3D et aux graphismes en haute résolution), les GPU sont désormais un composant indispensable de tout PC.

Rejoignez-nous dans notre parcours sur le chemin de la mémoire dans le cadre notre série L’Histoire du jeu vidéo. On commence donc en retraçant l’évolution des cartes graphiques, d’hier à aujourd’hui. Si vous comptez plutôt avoir un aperçu du futur, venez faire un tour sur notre Roadmap.

Les années 70

Les cartes graphiques d'aujourd'hui sont issus d'un passe-temps que beaucoup d'entre nous apprécie et pratique encore : le jeu d'arcade. À l'époque, les graphismes 3D étaient déterminés par les premiers contrôleurs d'affichage - connus sous le nom de “video shifters” et de “video address generators” - par opposition aux cartes graphiques élégantes et ultra-puissantes que nous connaissons aujourd'hui.

Le changement a commencé lorsque des entreprises notables, dont Motorola, RCA et LSI, ont commencé à produire des puces vidéo et des processeurs dotés de capacités très avancées. La puce vidéo "Pixie" de RCA est apparue en 1976 et était capable d'émettre un signal vidéo compatible NTSC à une résolution de 62x128 (croyez-nous, malgré ce langage obscur, c’était une grande réussite à l'époque), tandis que les travaux de Motorola sur les “video address generators” de la même époque allaient servir de base à Apple II. Pendant ce temps, LSI développait ANTIC - un contrôleur d'interface qui a fait ses débuts sur l'Atari 400 - qui prenait en charge le défilement fluide et les graphismes des terrains.

Le jeu d’arcade Galaxian de Namco, sorti en 1979, a fait passer les choses au niveau supérieur. Equipé d'un matériel graphique prenant en charge des avancées telles que les couleurs RVB (Rouge Vert Bleu), des arrière-plans améliorés et du matériel vidéo personnalisé, Galaxian était l'un des systèmes les plus populaires pendant ce que l'on appelle aujourd'hui “l’âge d'or des jeux vidéo d'arcade". Qui aurait cru que le jeu vidéo allait connaître d’encore plus grands bouleversements ?

Les années 80

Les 80s ont vu une grande variété de progrès dans l'affichage graphique, tant pour les jeux vidéo que pour les ordinateurs. On peut notamment évoquer le premier processeur d'affichage graphique VLSI entièrement intégré pour PC, le NEC µPD7220, et le premier processeur graphique entièrement programmable, le TMS34010, qui deviendra la base des cartes accélératrices TIGA Windows (vous pouvez chercher, toutes ces références existent réellement) !

Les graphismes, en effet, étaient dans l'esprit de tout le monde - et d'autres entreprises, y compris IBM, expérimentaient des moyens de rendre à la fois l'image et la vidéo plus claires. En 1981, ils ont commencé à incorporer des adaptateurs d'écran monochrome et couleur dans leur matériel, afin de pouvoir lire des vidéos. Peu de temps après, Intel sortait l'ISBX 275 Video Graphics Controller Multimodule Board, qui pouvait afficher huit couleurs à une résolution de 256x256 et 512x512 en monochrome. Ailleurs, trois immigrants de Hong Kong formaient ATI Technologies en Ontario, qui sera à l’origine des cartes graphiques et des puces révolutionnaires qui domineront le marché pendant des années.

“Mais qu’en était-il des graphismes des jeux vidéo ?”, nous direz-vous. Eh bien, deux ou trois avancées. En 1987, une charmante petite entreprise appelée Sharp lançait le X68000 pour le jeu sur PC à la maison. Doté d'une palette de 65 536 couleurs, de multiples terrains de jeu et d'un support matériel pour les sprites (éléments graphiques se déplaçant à l’écran), il a ensuite été utilisé comme machine de développement pour la carte d'arcade CP System de Capcom. Cependant, seulement 2 ans plus tard, Fujitsu sortait son ordinateur FM Towns - qui arrivait avec une palette époustouflante de 16.777.216 couleurs !

Les années 90

Outre les émissions de télé, la musique et la mode emblématiques de cette époque, cette décennie a également connu les premières cartes graphiques “modernes”. À ce moment-là, les graphismes 3D en temps réel étaient très demandés, et le matériel graphique 3D était produit en série pour le marché public - en se concentrant particulièrement sur l'amélioration des jeux vidéo. Le leader de l'innovation pendant la majeure partie de la décennie était 3DFx, dont la carte graphique 3D initiale - la Voodoo 1 - a rapidement pris le pas sur 85% du marché. Leur deuxième version, la Voodoo 2, aurait même été l'une des premières cartes vidéo à supporter deux cartes dans un même PC... mais leur règne n’allait pas durer éternellement.

A l'aube du millénaire, une petite entreprise appelée Nvidia allait faire irruption avec deux cartes révolutionnaires : la RIVA TNT 2, qui prenait en charge la couleur 32 bits, et la Nvidia GeForce 256 DDR... que la société a baptisé "la première unité de traitement graphique au monde" (ou GPU dans son abréviation anglaise !). Le monde n’a pas attendu longtemps pour se rendre compte qu'il s'agissait d’un immense bond en avant technologique. Les performances de jeu en 3D proposées faisaient alors l’unanimité. La qualité d’image était incroyable, elle fonctionnait parfaitement et elle était également abordable en termes de prix, ce qui en faisait un choix évident pour les consommateurs qui pouvaient l'inclure dans leur PC. Après sa sortie, la qualité des jeux vidéo n'a pas tardé à monter en flèche.

Les années 2000

Certains se souviennent peut-être de l'apocalypse technologique anticipée (aujourd’hui connue sous le nom de "bug de l'an 2000") et qui nous fait doucement rire désormais, mais cela n'a pas empêché Nvidia et ATI de repousser une fois de plus les limites. Nvidia a introduit à cette époque la première puce capable d'ombres programmables, qui posa les bases de l'ombrage des pixels, un processus qui permet d’ajouter de la texture à un objet, le rendant soit rond ou extrudé, soit brillant, terne ou rugueux. ATI a rapidement emboîté le pas, ajoutant la technologie à leur deuxième génération de cartes Radeon.

Les cartes suivantes ont continué d'offrir des améliorations progressives des performances au cours des années suivantes, bien que l'interface AGP vieillissante ait été remplacée par l'interface PCiE beaucoup plus rapide, qui existe toujours aujourd'hui. Les années 2000 ont également été marquées par l'arrivée du Crossfire d'ATI et du support SLI de Nvidia, permettant à deux ou plusieurs cartes graphiques de se connecter et d'offrir des performances accrues.

Le nom d'ATI sera bientôt supprimé après un rachat d'AMD, consolidant ainsi la position de l'équipe red en tant que digne concurrent de Nvidia. AMD apportera plus tard sa technologie d'affichage EyeFinity aux consommateurs, qui permettait aux cartes graphiques d'afficher un jeu vidéo sur trois écrans ou plus pour une expérience vraiment immersive.

Depuis 2010

Et cela nous amène à l'époque actuelle - ou à la décennie, si vous voulez. Nvidia et AMD ont inauguré une série de nouvelles technologies qui ont eu un effet transformateur pour l'ensemble des cartes graphiques, avec de nombreuses innovations réservées aux entreprises qui, pour la première fois, accèdent à du matériel de qualité. Par conséquent, les unités de traitement graphique sont aujourd'hui utilisées dans un large éventail de domaines, Nvidia aidant à créer des voitures autonomes grâce à l'IA pour l'industrie automobile, tandis qu'AMD continue à alimenter les centres de données à travers le monde.

Pour les joueurs, les progrès de la technologie ont été pour le moins importants. Les deux sociétés ont éliminé les effets de “stuttering” et de “tearing” à l'écran grâce aux technologies d'affichage G-Sync et Free-Sync, et de nouveaux procédés de fabrication ont ouvert la voie à des chipsets plus petits qui continuent à consommer de moins en moins d'énergie - du moins c'est le but - tout en améliorant les performances.

Le plus grand changement à l'horizon, cependant, est l'introduction du Ray-Tracing en temps réel et du suréchantillonnage assisté par l'IA. Bien qu'AMD n’ait pas encore dévoilé son approche du Ray-Tracing, Nvidia a investi massivement dans cette nouvelle technologie avec ses cartes GeForce RTX. Le PDG de Nvidia, Jensen Huang, ayant qualifié le Ray-Tracing de "Saint Graal" du secteur graphique. Nvidia mise également sur sa technologie DLSS (Deep Learning Super Sampling), qui promet d'aider à augmenter le taux de rafraîchissement à des résolutions plus élevées. Pour ne pas être en reste, AMD possède sa propre solution propriétaire, Radeon Image Sharpening, qui fera du jeu 4K une perspective plus tangible dans le futur.

Il est donc clair que Nvidia et AMD continuent d'échanger des coups au profit des joueurs. Certaines innovations peuvent sembler superflues contrairement à d’autres (on pense notamment à l’utilité de Nvidia Hairworks...), mais il n'y a aucun doute sur le fait que le jeu vidéo bénéficie énormément de cette concurrence !