(http://www.heise.de/imgs/18/5/7/2/9/5/9/89410ec5f92e2be2.jpeg)
CUDA-Programme sollen bald auch auf x86-Hauptprozessoren lauffähig sein. Dies hat Nvidia-Chef Jen-Hsun Huang auf der GPU Technology Conference (GTC) im kalifornischen San Jose angekündigt. So wird die Portland Group (PGI) einen speziellen, kostenpflichtigen Compiler – CUDA-x86 – anbieten, der CUDA-Code für x86-Prozessoren (32/64 Bit) von AMD und Intel übersetzt, deren Kerne dann im Zusammenspiel mit ihren SIMD-Streaming-Fähigkeiten die Ausführung paralleler Befehle übernehmen.
Vorstellen will PGI den CUDA-C-Compiler auf der Supercomputing Conference in New Orleans, die vom 13. bis 19. November stattfindet.Nvidia vergrößert damit die Reichweite von CUDA drastisch. CUDA-Programme lassen sich dann auch ohne entsprechende Grafikkarte testen und debuggen. Bis dato verarbeiten nur Nvidia-Grafikchips (ab G80) mit Unified-Shader-Architektur entsprechenden GPGPU-Code. Derzeit ermöglicht lediglich die Open Computing Language (OpenCL), deren Spezifikation bereits Ende 2008 verabschiedet wurde, das Programmieren von Applikationen, die auf CPU und GPUs gleichermaßen laufen.
Zufrieden zeigte sich Huang außerdem über das immer weiter zunehmende Interesse an CUDA. So habe sich 2010 im Vergleich zu 2009 die Zahl der CUDA-SDK-Downloads mit 668.000 Stück mehr als verdoppelt, die Zahl der Tesla-Systeme anbietenden OEMs von 1 auf 9 erhöht und die GTC-Einreichungen auf 334 verfünffacht. Huang kündigte auch noch mit Tesla-Rechenkarten bestückte Blades für die Supercomputing-Systeme IBM BladeCenter, T-Platforms TB2 und Cray XE6 an.
Quelle : www.heise.de
Nvidia hat seine GPGPU-Bibliothek Cuda in der Version 3.2 veröffentlicht. Einzelne Berechnungsmethoden hat Nvidia dabei um ein Vielfaches beschleunigt.
(http://www.golem.de/1011/79701-5721-1290754536_tesla_fermi_final_kv_sm.png)
Cuda erlaubt es, beliebige Berechnungen auf einer Nvidia-GPU auszuführen. Die Version 3.2 der Bibliothek soll dabei deutlich schneller sein als ihr Vorgänger. So soll Nividias Blas-Implementierung (Basic Linear Algebra Subprograms) namens Cublas auf Fermi-Chips Matrixmultiplikationen aller Datentypen 50 bis 300 Prozent schneller durchführen. Die Bibliothek Cufft für schnelle Fourier-Transformationen soll bei einzelnen Berechnungen sogar zwei- bis zehnmal schneller sein als ihr Vorgänger.
Mit Cusparse gebe es zudem eine neue Bibliothek zum Umgang mit dünnbesetzten Matrizen (Sparse Matrix), mit der dank GPU-Beschleunigung einige Operationen fünf- bis 30-mal schneller abgewickelt werden könnten als mit Intels Math Kernel Library (MKL), so Nvidia. Ähnliches gelte für Curand, eine Bibliothek zur Erzeugung von Pseudo-Zufallszahlen. Hier gibt Nvidia an, dass Berechnungen zehn- bis 20-mal schneller abliefen als mit MKL.
Darüber hinaus hat Nvidia Encoder und Decoder für H.264 in das Cuda-Toolkit integriert, unterstützt Quadro- und Tesla-Produkte mit 6 GByte Speicher und den Modus Tesla Compute Cluster (TCC) auf Windows-Desktops.
Die Entwicklerwerkzeuge wurden um Multi-GPU-Debugging, einen erweiterten Cuda-Memcheck für alle Fermi-Architekturen und NVCC um Unterstützung für Intels C Compiler (ICC) in der Version 11.1 auf 64-Bit-Linux-Systemen erweitert. Mit Nvidia-SMI gibt es eine neue Schnittstelle zur Überwachung von Leistungswerten der GPU.
Cuda 3.2 steht unter developer.nvidia.com für Windows, Linux und Mac OS X zum Download bereit.
Quelle : www.golem.de