Tim Sweeney, der Kopf hinter den Unreal-Engines, hat in einem Vortrag auf einer Fachkonferenz das Ende des bisherigen Grafikprozessors vorhergesagt. GPUs seien immer noch zu kompliziert zu programmieren. Reines Software-Rendering mit Voxeln und Raytracing-Elementen sei die Zukunft.
Auf der Konferenz "High Performance Graphics 09", die Anfang August 2009 parallel zur "Supercomputing" in New Orleans stattgefunden hat, hielt Tim Sweeney einen Vortrag mit dem Titel "The End of the GPU Roadmap". Inzwischen sind die Folien des Vortrags (PDF) auf den Servern des Williams-College in Massachusetts aufgetaucht.
(http://scr3.golem.de/screenshots/0908/Sweeney/thumb480/Image1.png)
Nach ausführlichen technischen Erklärungen anhand der seit 1996 von Sweeney entwickelten Unreal-Engines zieht der Epic-Mitbegründer das ernüchternde Fazit, dass GPUs, wie sie bisher üblich sind, immer noch zu schwer zu programmieren seien, was sich für Spieleentwickler nur selten lohne.
Als Faustregel gibt Sweeney folgende Formel an: Schon die Entwicklung einer Anwendung mit Multi-Threading, wie es moderne PC-Prozessoren erfordern, kostet das Doppelte eines Single-Threaded-Programms. Für den In-Order-Prozessor Cell der PlayStation 3 verfünffachen sich die Kosten, und eine GPU voll auszureizen kostet laut Sweeney das Zehnfache.
Ein Hauptgrund seien die Programmiersprachen für GPUs, die im Vergleich zum objektorientierten C++ immer noch "eigenartig" seien, so Sweeney. Da der Programmierer zudem immer mit den Einschränkungen der Größe des Grafikspeichers und der Verwaltung von PC-RAM und Grafikspeicher zu kämpfen habe, fordere das inzwischen zu große Kompromisse.
Typischerweise würden die Spielfiguren heute mit 3D-Modellen aus 4 Millionen Polygonen entwickelt und für ein PC-Spiel auf 20.000 Polygone heruntergerechnet. Um die Grafikqualität weiter steigern zu können, sei eine höhere Auflösung der Figuren aber zwingend. Als weiteres Beispiel nennt Sweeney das Anti-Aliasing, für das insbesondere die Speicheranforderungen immer noch zu hoch seien. Epics Technikchef wünscht sich statt des heute bei spielbaren Bildraten üblichen achtfachen Anti-Aliasings aber zehn bis 20 Durchgänge der Filterung.
Inzwischen, so Sweeney weiter, näherten sich CPU und GPU immer weiter an - er nennt dafür, wie nicht anders zu erwarten, Intels Larrabee mit seinen Dutzenden x86-Kernen als Beispiel. Mit solchen Architekturen, nicht aber mit den immer noch "zu stark fixierten" Rechenwerken von herkömmlichen GPUs, könne man neue Algorithmen verwenden.
Sweeney schlägt dafür die Reyes-Archtiektur vor, die mit schattierten Mikropolygonen arbeitet und Teile von Raytracing-Algorithmen verwendet. Die bisher bei GPUs üblichen Unterschiede der Leistung je nach Auflösung fallen bei Reyes weniger stark ins Gewicht.
Ausgehend von Moores Law erwartet Sweeney bis zum Jahr 2020 eine Verzwanzigfachung der Rechenleistung - egal ob auf CPU oder GPU. Dafür reiche dann aber ein lokaler Grafikspeicher nicht mehr aus und die nächste Generation der Spiele-Engines käme schon lange nicht mehr mit, meint der Programmierer.
Diese Engines müssten aber jetzt schon mit anderen Ansätzen entwickelt werden, denn: Statt mit drei Jahren für die Unreal Engine 3 rechnet Sweeney für seinen nächsten Spieleunterbau mit fünf Jahren - also 2014, falls er jetzt beginnen würde. Bis zum Jahr 2020 müsste diese Engine dann aber konkurrenzfähig sein.
Folglich ist laut Sweeney quasi sofort ein Umdenken bei den Spieleentwicklern gefordert. Dass der Ruf nach einem Software-Renderer ausgerechnet von ihm kommt, ist dabei kein Zufall: Sein erstes aufwendiges 3D-Spiel, der Titel "Unreal" aus dem Jahr 1998, überzeugte mit damals nicht gekanntem Software-Rendering ganz ohne Zutun von 3D-Funktionen auf dem Grafikprozessor. Mit einem Pentium bei 60 MHz habe diese Engine 16 Operation pro Pixel bei 320 x 200 Pixeln auf dem Bildschirm und 30 Bildern pro Sekunde geschafft. Bis 2012 will Sweeney 16.000 Operationen pro Pixel bei 1.920 x 1.080 Pixeln und 60 Bildern pro Sekunde erreichen.
Quelle : www.golem.de
... und wie sich seine Gültigkeit verlängern lässt
Jahr für Jahr werden die Strukturgrößen in der Elektronik verringert. Intel & Co. geben die Milliarden dafür nicht aus, um möglichst kleine Chips zu produzieren, sondern um die Verlustleistung zu verringern. Je kleiner die Wege sind, die die Ladungsträger zurücklegen müssen, desto geringer können die dafür nötigen Spannungen ausfallen. Einen aktuellen Prozessor mit Energiefressern wie etwa Relais nachzubauen, würde pro Computer ein mittleres Kraftwerk voraussetzen. Insofern ist bewundernswert, wie es die Forscher doch immer wieder schaffen, Gordon Moores Vorhersage zu erfüllen, dass sich die Komplexität logischer Schaltkreise regelmäßig verdoppelt.
Doch es gibt eine theoretische Untergrenze bei der Verbesserung der Energie-Effizienz. Damit ist nicht die Tatsache gemeint, dass Leiterbahnen und Transistoren irgendwann aus einzelnen Atomen bestehen werden - dieses Problem lässt sich mit Ingenieurskunst lösen, auch wenn wir heute noch nicht wissen wie. Vielmehr geht es um eine prinzipbedingte Untergrenze, was in der Wissenschaft ein deutlich ärgerlicheres Problem darstellt - man denke an die Vakuum-Lichtgeschwindigkeit c, die Science-Fiction-Schriftsteller, die auch etwas von Science halten, regelmäßig vor praktische Probleme stellt. Generationen-Raumschiffe sind ja auf Dauer auch langweilig... Diese Untergrenze hat erstmals der deutsch-amerikanische Physiker Rolf Landauer diskutiert.
Sein - bisher nicht bewiesenes - Landauer-Prinzip besagt, dass mit dem Löschen eines einzelnen Bits die Freisetzung einer Wärmemenge von W=kT*ln(2) verbunden ist. T ist dabei die absolute Temperatur, k die Boltzmann-Konstante. Es handelt sich dabei zugegebenermaßen um einen sehr kleinen Wert, der heute in der Praxis keine Rolle spielt.
Behält allerdings Moore Recht, kommt die Elektronik in den 30er Jahren dieses Jahrhunderts in einen Bereich, wo diese kleine Wärmemenge dann doch wichtig wird. Dass sie überhaupt entsteht, liegt an der - vermuteten - Verknüpfung zwischen der Entropie in der Informationswissenschaft und dem Entropiebegriff der Thermodynamik. Dass es diese Verbindung gibt, dafür spricht, dass es zur Speicherung von Informationen stets einer physikalischen Grundlage bedarf.
Wenn aber im Laufe einer Operation die Entropie, die Unordnung, zunimmt, dann nennt man diesen Vorgang irreversibel - er ist nur rückgängig zu machen, indem man Energie aufwendet. Aus der Sicht der Informationsverarbeitung spannend ist die Tatsache, dass logische Operationen im Computer sich stets in einen reversiblen Teil und in einen irreversiblen Anteil zerlegen lassen, bei dem Informationen gelöscht werden.
Kühlung für Quantencomputer
Wenn man einen reversiblen Computer konstruieren will, müsste man also auf das Löschen von Informationen verzichten. Nun gibt es keinen prinzipiellen Zwang, errechnete Informationen zu löschen - man könnte ja auch für jede Operation "frische" Bits nutzen. Nur ist das wieder in anderer Hinsicht (Speicherkapazität) ineffizient. Sollte es möglich sein, das System so geschickt zu konstruieren, dass es nach der Berechnung wieder ganz von selbst seinen Anfangszustand einnimmt?
Der US-Physiker Charles Bennett hat als erster gezeigt, dass das wirklich möglich ist: Jede logische Operation lässt sich als Verknüpfung reversibler Schritte vollziehen. Praktisch sind reversible Computer dann aber doch so schwierig zu konstruieren, dass sie noch keine Rolle spielen (es besteht allerdings auch noch kein wirklicher Bedarf).
Aber vielleicht ist es ja auch gar nicht nötig, die Suche fortzusetzen: In der aktuellen Ausgabe des Wissenschaftsmagazins Nature zeigt (http://www.nature.com/doifinder/10.1038/nature10123) nämlich ein internationales Forscherteam, dass in der Quantenwelt mal wieder vieles anders ist. Die Forscher nutzen die Tatsache, dass die Verschränkung von Qubits eine unerwartete Folge haben kann: Die Entropie der Kombination kann auch negativ werden. Das System ist dann gewissermaßen mehr als zu 100 Prozent sicher, in welchem Zustand seine Komponenten sind. Die Forscher zeigen nun in ihrer Arbeit, dass die zur Aufhebung der Entropie H nötige Arbeit W=H*k*T*ln(2) beträgt - und wenn H negativ ist, verrichtet das System Arbeit, statt Wärme abzugeben.
Das könnte man nutzen, um den Quantencomputer insgesamt zu kühlen - ein für Quantenrechner sehr nützliches Zusatzfeature. Die Tricks, die die Forscher dazu anwenden, setzen allerdings, das geben sie selbst zu, eine außergewöhnliche präzise Manipulationsfähigkeit von Quantenzuständen voraus. Ob diese praktisch je erreichbar ist, steht in den Sternen. Die Wissenschaftler vergleichen ihre Maschine jedoch mit der Carnot-Maschine: Auch diese ideale Maschine ist zwar in der Praxis nicht erreichbar, beschreibt aber trotzdem die Funktionsweise heutiger Wärmekraftmaschinen präzise - bis auf deren nicht idealen Wirkungsgrad.
Quelle : http://www.heise.de/tp/
Von der Performance von Prozessoren und der Komplexität von Chips
Moores Gesetz kennt jeder ITler. Jede zweite ITler streitet gerne darüber, was das Gesetz eigentlich besagt. Aber es ist wirksam, seit einem halben Jahrhundert.
Heute vor 50 Jahren, am 19. April 1965, veröffentlichte Gordon E. Moore in der Zeitschrift Electronics den Aufsatz Cramming More Components onto Integrated Circuits. Moore war damals Forschungsleiter bei Fairchild Semiconductor und begann mit dem Leitsatz: "Während die Stückkosten fallen, wenn die Zahl der Komponenten pro Schaltkreis steigt, könnte es 1975 ökonomisch Sinn machen, bis zu 65.000 Komponenten auf einem einzigen Silizium-Chip zu quetschen."
(http://1.f.ix.de/imgs/18/1/4/7/1/2/7/0/Moore1-9b14ce19db92cc23.jpeg)
Populär geworden ist Intels Variante von Moore's Law, nach der sich die Performance von Chips alle 18 Monate verdoppelt. Moores Gesetz lautet aber in Moores eigener Zusammenfassung ursprünglich: "Die Komplexität für Chips mit minimalen Herstellungskosten (Kosten pro Komponente) wächst grob um Faktor zwei in jedem Jahr.“ Moores Prognose der Chipentwicklung wurde eigentlich erst vom VLSI-Pionier Carver Mead als "Moore's Law" geadelt. Heute gehen Autoren wie Dana Blankenhorn so weit, dem "Gesetz" eine Wirkmächtigkeit für die zweite Hälfte des 20. Jahrhunderts zu attestieren, wie sie Einsteins Relativitätstheorie für die erste Hälfte besaß.
Basis-Technologie
Mit seinem in der Electronics veröffentlichten Aufsatz verfolgte Gordon E. Moore zwei Ziele: Erstens wollte er eine Beobachtung bei der Halbleiter-Entwicklung für die Laien-Leserschaft der Electronics veranschaulichen. Sein Aufsatz war daher nicht nur wissenschaftlich angelegt, sondern wartete am Anfang mit einer einfachen Beschreibung auf, die entsprechend humorig illustriert war:
"Die Zukunft von integrierten Schaltkreisen ist die Zukunft der gesamten Entwicklung der Elektronik. Integrierte [Schaltkreise, d.Ü.] werden die Basis vieler Elektronik-Prdukte bilden und diese Wissenschaft in Zukunft völlig neue Gebiete vordringen lassen. Integrierte Schaltkreise werden uns zu solchen Wundern wie Heimcomputer führen -- oder mindestens zu intelligenten Terminals, die uns mit einem Zentralcomputer verbinden, zu computer-automatischen Steuerungen in Automobilen und zu ganz persönlichen Kommunikations-Gegenständen. Die elektronische Uhr am Armband braucht heute nur noch einen akzeptablem Bildschirm, um machbar zu sein."
Der unbekannte Beitrag
Zweitens wollte Moore eine Art Verkaufshilfe erstellen, zunächst für sich und die Fairchild-Mitarbeiter, sehr bald aber für den Plan, mit einer eigenen Firma die Chip-Entwicklung voranzutreiben. Als Moore sich zusammen mit Robert Noyce daran machte, den Venture-Kapitalisten Arthur Rock für die Finanzierung einer neuen Firma zu gewinnen, die schließlich Intel genannt wurde, spielte der Aufsatz als Anregung für die Investoren eine wichtige Rolle.
Zuvor hatte Noyce beim alten Arbeitgeber Fairchild Semiconductor damit begonnen, das Gesetz seines Kollegen praktisch umzusetzen: Er verkaufte Chips unter den Gestehungskosten, weil er wusste, dass der niedrige Preis eine große Nachfrage erzeugte, die wiederum zu neuen, dichter gepackten Chips führte, die sich besser verkaufen ließen. Es war Gordon Moore, der diese Verkaufsaktionen als "Bobs unbekannten Beitrag zur Geschichte der Halbleiter-Industrie" pries.
Intel selbst feiert den 50. Geburtstag mit einer kleinen Artikelreihe, die in der Beschreibung des 14 Nanometer-Transistors kulminiert. In den nächsten 10 Jahren könnte man bis auf 5 Nanometer herunter gehen, ganz nach dem Gesetz, das Gordon Moore als Verkaufshilfe formulierte.
Quelle : www.heise.de