Graphics Processor Units, oder GPUs, sind in den letzten 20 Jahren unabdingbar für den PC-Gebrauch geworden. Von pixeligen 3D-Ansichten bis hin zu traumhaftschönen Spielen in 4K – GPUs haben sich so sehr weiterentwickelt, wie kaum eine andere PC-Hardware.
Gemeinsam schauen wir uns die ersten Gehversuche noch einmal genauer an, und arbeiten uns Stück für Stück zu den grafischen Meisterleistungen, die wir heutzutage als „normal“ empfinden. Wir wir das in Zukunft weiterentwickeln und für Cloud Gaming und deinen Shadow optimieren erfährst du unteranderem in unserer Roadmap.
Heutige GPUs wurden, besonders durch das damals beliebte Arcade-Gaming, geprägt. Leider hatten Arcades in Deutschland keinen guten Stand, und wurden durch strenge Regularien in die Knie gezwungen. Nichtsdestotrotz hat so die Entwicklung der GPUs begonnen.
Damals haben große Unternehmen wie Motorola, RCA und LSI angefangen Grafikchips und bessere Prozessoren zu entwickeln. Im Jahre 1976 kam RCA’s „Pixie“ Grafikchip auf den Markt, der in der Lage war, ein NTSC-kompatibles Signal in einer Auflösung von 62x128 auszugeben – ein regelrechter technischer Durchbruch zu dieser Zeit. Zur selben Zeit arbeitete Motorola an sogenannten Adress Generators, die die Basis für den Apple II darstellen sollte. LSI war ebenfalls fleißig, und hat in der Zwischenzeit „ANTIC“ ins Leben gerufen. Einen Interface Controller, der im Atari 400 sein Debüt gegeben hat. Durch ihn wurde ein weicheres Scrolling ermöglicht, ebenso die ersten Playfield Graphics (oder Pixelgrafiken).
Gegen Ender der 70er hat Namco Galaxian den nächsten großen Schritt gewagt, und Gaming revolutioniert. Zum ersten Mal hat die Grafik-Hardware Dinge wie RBG-Farben, Tilemap Backrounds und Custom Video Hardware unterstützt. Die Nachfrage war enorm, und noch heute gilt dieses Arcade-System von Namco als eines der besten Spiele der „Golden Age of Arcade Gaming“.
Die 80er waren eine wichtige Epoche für die Weiterentwicklung von Grafikprozessoren und Videospielen. Sowohl Videospiele als auch PCs selbst konnten riesige Sprünge in der Weiterentwicklung von Grafik verzeichnen. Beispielsweise kam der erste, vollintegrierte VLSI Graphics Display Prozessor für den PC heraus. Das war der NEC µPD7220, außerdem wurde der erste vollprogrammierbare Grafikprozessor TMS34010 vorgestellt, welcher die Basis für den späteren TIGA Windows Accelerator Cards darstellt.
Gerade weil das Thema Grafik in den frühen 80ern so viele Unternehmen beschäftigte, hat IBM angefangen nach Wegen zu suchen, um die Bildqualität zu verbessern. Im Jahr 1981 hat IBM begonnen Monochrom- und Farbdisplayadapter in ihrer Hardware zu verbauen, sodass man sich nun Videos auf dem PC anschauen konnte. Nur kurz danach hat Intel den ISBX 275 Video Graphics Controller Multimodule Board entwickelt, mit dem man acht Farben mit einer Auflösung von 256x256, oder monochrome Bilder mit einer Auflösung von 512x512 darstellen konnte. Zur selben Zeit haben drei Männer aus Hong Kong die Firma ATI in Ontario, Kanada gegründet.
Was hat das alles mit Gaming zu tun? In den 80ern waren Computerspiele noch nicht so omnipräsent, wie sie es heute sind. Es wurde viel mehr als Nischenprodukt abgestempelt, mit denen eine Handvoll Unternehmen ihr Geld verdiente. Beispielsweise hat Sharp im Jahr 1987 den X68000 Gaming PC für Zuhause herausgebracht. Mit 65.536 Farben, und mehreren verschiedenen Maps, ist er leider beim Endkunden gefloppt. Dafür wurde er vornehmlich von der Firma Capcom verwendet, um ihre entwickelten Spiele darauf zu testen. Nur zwei Jahre später, im Jahr 1989, hat Fujitsu sich ebenfalls ins Gaming eingemischt, und den FM Towns Computer herausgebracht. Dieser war mit einer unglaublichen 16.772.216 Farbpalette ausgestattet – eine Riesenmenge für die späten 80er.
Die 90er sind nicht nur ein Jahrzehnt der coolen Fernsehsendungen, unvergesslicher Musik und abgefahrener Mode, sondern sie legten auch das Fundament für den modernen GPU. Zu diesem Zeitpunkt war die Nachfrage nach 3D-Animationen deutlich gestiegen. 3D-Hardware wurde zum ersten Mal in Masse produziert, und verkaufte sich wie warme Semmeln, was dem Videospielemarkt nur zu Gute kam.
Den Markt beherrschte damals ein kleines Unternehmen mit dem Namen 3DFx, die mit ihrer Voodoo 1 Grafikkarte einen Marktanteil von bis zu 85% für sich beanspruchen konnten. Der Nachfolger, die Voodoo 2, war damals eine der ersten Grafikkarten, die eine zweite Karte im selben Computer unterstützt, um dadurch mehr Grafikspeicher zu schaffen. Der Erfolg war jedoch nur von kurzer Dauer.
Kurz vor der Jahrtausendwende hat ein bis dato unbekanntes Unternehmen mit zwei Grafikkarten den Markt aufgerüttelt. Die Rede ist selbstverständlich von Nvidia und ihren revolutionären Karten, der RIVA TNT 2, die 32-Bit unterstützte, oder die Nvidia GeForce 256 DDR, die vom Unternehmen als „erste Graphics Processing Unit der Welt“ vorgestellt wurde. Es dauerte nicht lange bis Gamer auf der ganzen Welt den Trend, der von Nvidia ausging, realisiert haben. Das Resultat war um Längen besser als alles, was Gamer bis dahin gewohnt waren. Die Bildqualität war umwerfend, alles lief flüssig, und es war auch noch erschwinglich. Nach nur kurzer Zeit gehörten Nvidia-Karten zur Standardausrüstung der Gamer, was vor allem die Qualität von Videospielen deutlich verbessert hat.
Nachdem die Computer der Welt den Jahreswechsel gut überstanden haben, und der erwartete Zusammenbruch ausgeblieben ist, haben Nvidia und ATI wieder einmal die Grenzen des Möglichgeglaubten verrückt. Nvidia hat damals den ersten programmierbaren Grafikchip entwickelt, welcher den Grundstein für das spätere Pixel Shading gelegt hat. Mit Pixel Shading konnte man auf einmal einem Objekt eine Oberfläche geben, wodurch es entweder glatt, rau, glänzend usw. wirken konnte. ATI hat sich dem Trend sofort angeschlossen, und Pixel Shading in die zweite Generation ihrer Radeon-Cards eingebaut.
Die Karten der nächsten Jahre haben sich in Sachen Leistung immer wieder übertroffen. Solange bis das veraltete AGP Interface durch das neuere, und deutlich schnellere, PCiE Interface ersetzt wurde, welches heute immer noch verwendet wird. Ein weiterer Meilenstein der 2000er waren die Veröffentlichungen der ATI Crossfirre und des Nvidia SLI Support, mit dem man zwei (oder mehr) Grafikkarten miteinander verbinden konnte, umso die Grafikleistung nochmal zu erhöhen.
Doch ATI war am Ende angekommen. Ein mächtiger Newcomer namens AMD hat ATI aufgekauft, um somit ihre Position als Nvidia-Konkurrent zu festigen. Nur wenige Zeit später kam die erste große Innovation von AMD – das EyeFinity Display. Auf einmal war es möglich sein Spiel auf drei, oder mehr Monitoren auszubreiten, dadurch konnte man viel tiefer in sein Spiel eintauchen konnte.
Somit sind wir auch schon in unserem Jahrzehnt angekommen. AMD und Nvidia haben über Jahre zahlreiche Innovationen veröffentlicht, die einen sehr starken Einfluss auf GPUs als Ganzes hatten. Heutzutage ist es auch nicht mehr unüblich, dass GPUs auch für andere Dinge als Videospiele eingesetzt werden. Nvidia ist beispielsweise an der Entwicklung von selbstfahrenden Autos beteiligt, während AMD der wahrscheinlich größte Anbieter von Datenzentren weltweit ist.
Für Gamer waren die ganzen Innovationen natürlich hervorragend. Beide Unternehmen haben es geschafft, lästiges Ruckeln oder Screen Tearing, durch Technologien wie G-Sync oder Free-Sync, zu entfernen. Außerdem haben neue Herstellungsprozesse die Größe der Chipsets deutlich kleiner werden lassen, sodass diese weniger Elektrizität benötigen, aber trotzdem dieselbe Performance abliefern, wie es größere Chipsets können.
Trotz all dieser großartigen Erfindungen lässt sich eine weitere große Innovation am Horizont erkennen – Real-Time Ray-Tracing und AI-Assisted Supersampling. AMD hält sich zurzeit noch bedeckt, wenn es um ihre neuen Technologien geht, allerdings ist es weitläufig bekannt, dass Nvidia stark in die neue Lighting-Technology ihrer GeForce RTX Karten investiert hat. Eine weitere Innovation aus dem Hause Nvidia ist die Deep Learning Super Sampling Technologie (DLSS), mit der sich die Framerate, auch bei hohen Auflösungen, steigern lässt. Damit AMD nicht den Anschluss verliert, arbeiten sie gerade am sogenannten Radeon Image Sharpening, mit dem 4K-Gaming zum Standard von Morgen werden soll.
Wie ihr sehen könnt, wollen sich AMD und Nvidia immer gegenseitig überbieten, was am Ende nur gut für den Gamer ist. Manche Innovationen sind wirklich bahnbrechendend, andere eher was für echte Liebhaber. Jedoch gibt es keinen Zweifel, solange die Branche gesund und munter ist, profitiert am Ende der Zocker.