CUDA

CUDA (früher auch Compute Unified Device Architecture genannt) ist eine von Nvidia entwickelte Programmierschnittstelle (API), mit der Programmteile durch den Grafikprozessor (GPU) abgearbeitet werden können. In Form der GPU wird zusätzliche Rechenkapazität bereitgestellt, wobei die GPU im Allgemeinen bei hochgradig parallelisierbaren Programmabläufen (hohe Datenparallelität) signifikant schneller arbeitet als die CPU. CUDA wird vor allem bei wissenschaftlichen und technischen Berechnungen eingesetzt.

Technische Details

Der nur für Grafikberechnungen genutzte Grafikprozessor kommt mittels der CUDA-API auch als Koprozessor zum Einsatz. Anwendungsbeispiele sind die Lösung seismologischer oder geologischer Probleme, die Simulation elektromagnetischer Felder oder auch das Training von Neuronalen Netzen im Bereich des Maschinellen Lernens. Anwendung findet CUDA unter anderem bei dem Projekt SETI@home im Rahmen der Berkeley Open Infrastructure for Network Computing (BOINC). Allgemein lässt es sich nur dort effizient anwenden, wo (neben anderen Bedingungen) Berechnungen stark parallelisiert werden können.

Eingesetzt werden kann die CUDA-Technologie mit einer Grafikkarte ab der „GeForce 8“-Serie und auf den Quadro-Karten ab der Quadro FX 5600. Die Tesla-Karten von Nvidia wurden zum Einsatz für Hochleistungsrechnen optimiert und werden überwiegend mit CUDA angesprochen, unterstützen aber auch offene Standards wie OpenCL. Einigen fehlen sogar die Anschlüsse für Monitore.

Seit dem Zukauf der PhysX-Technologie von Ageia entwickelt Nvidia diese Technologie weiter und hat sie auf CUDA umgeschrieben.

Im März 2015 wurde von Nvidia die CUDA-Version 7.0 veröffentlicht.

Im September 2015 wurde von Nvidia die CUDA-Version 7.5 veröffentlicht.

Seit September 2016 ist die CUDA-Version 8.0 verfügbar, welche die neue Pascal-Serie voll unterstützt.

Seit September 2017 ist die CUDA-Version 9.0 mit Update auf 9.1 ab Dezember sowie Update 9.2 ab März, verfügbar, welche die neue Volta-Serie voll unterstützt. FERMI wird nicht mehr unterstützt.

Seit Herbst 2018 unterstützt CUDA 10 die Turing-Architektur.

CUDA 11 unterstützt voll die aktuelle Ampere-Architektur. Mit minimaler Compute capability 3.5 wird nur noch ein Teil der Kepler-Karten unterstützt.

Programmieren

Programmierer verwenden zurzeit C for CUDA (C mit Nvidia-Erweiterungen). Es existieren auch Wrapper für die Programmiersprachen Perl, Python, Ruby, Java, Fortran und .NET, sowie Anbindungen an MATLAB, Mathematica und R. Nvidia erstellte CUDA mit dem optimierenden C-Compiler Open64. Seit der Fermi-Architektur kann auch C++ verwendet werden.

Als CUVID (CUDA Video Decoding API) bezeichnet man eine Programmierschnittstelle für das Decodieren von Videos.

Alternativen

Beispiele für andere GPGPU-Lösungen:

  • OpenCL ist ein von der Khronos Group initiierter offener Standard, der für alle Grafikkarten funktioniert und für die meisten Betriebssysteme verfügbar ist.
  • Der ebenfalls von der Khronos Group entwickelte offene Vulkan-Standard unterstützt ebenfalls OpenCL ähnliche Compute-Shader.
  • DirectCompute: eine in die DirectX-API integrierte Schnittstelle für GPGPUs von Microsoft
  • HIP: Eine Schnittstelle zur Nutzung von GPGPUs von AMD

Software

Eines der ersten Programme, die CUDA unterstützen, ist der Client von folding@home, der die Geschwindigkeit biochemischer Berechnungen vervielfacht. Am 17. Dezember 2008 folgte der Client von SETI@home, der die Suche nach außerirdischem Leben um den Faktor 10 beschleunigt. Nvidia brachte die Software „Badaboom“ heraus, ein Videokonverter, der bis zu 20-mal schneller Videos konvertieren kann, als durch eine Berechnung mit der CPU. Andere Programme, welche CUDA verwenden, sind „TMPGEnc“, Sorenson Squeeze 7, Adobe Photoshop ab CS4 (hierbei wird der Einsatz von Filtern beschleunigt), Adobe Premiere Pro ab CS5.5 und Mathematica 8+ sowie die Nvidia-Software StyleGAN.

Simulationssoftware wie MSC/Nastran 2013+ wird mit CUDA zum Teil sehr stark beschleunigt; bei großen Modellen kann ein zu kleiner GPU-Speicher hinderlich sein. Weitere führende CFD- und FEM-Software wie OpenFoam und ANSYS nutzt CUDA zur Beschleunigung von Berechnungen. Dabei sinkt mitunter der Stromverbrauch der Berechnungen aufgrund der höheren Effizienz der GPU gegenüber der CPU bei diesen speziellen Rechenoperationen.

Kritik, Nachteile

Frühe Grafikprozessoren (GPUs) vor der Einführung von CUDA waren Prozessoren mit einem anwendungsspezifischen Design, daher kannten GPUs eher exotische Datentypen wie 9 Bit oder 12 Bit mit Festkommastelle, verzichteten hingegen aber häufig auf die für Allzweck-CPUs und FPUs üblichen Registerbreiten von 32, 48, 64 oder 80 Bit (usw.). Somit waren Berechnungen, beispielsweise mit den Genauigkeiten nach IEEE 754 (64 Bit für double precision), häufig nicht im Befehlssatz der GPU vorgesehen und mussten relativ aufwändig per Software emuliert werden. CUDA-fähige GPUs sind häufig auf Berechnungen mit 32-Bit oder 16-Bit Datentypen optimiert und weisen deutlich geringere Leistungen für 64-Bit Datentypen auf. Daher eignen sich GPUs vor allem zur Berechnung von Datentypen, die mit vergleichsweise geringen Bit-Breiten arbeiten.

Stand 2010 fertigten erste Hersteller bereits erweiterte GPUs, die neben den von der GPU benötigten Datentypen auch universelle Datentypen und Operationen z. B. zur direkten Berechnung IEEE 754 konformer Ergebnisse beinhalten. Als einer der aktuell führenden Hersteller stellt Nvidia mit der Fermi-Generation GPUs bereit, die sowohl 32-Bit-Integer, als auch einfach- und doppelt-genaue Gleitkomma-Datenformate nativ bereitstellen (float/double).

Ein anderer Nachteil ist die Anbindung an die Rechnerarchitektur, sie erfolgt bei aktuellen GPUs meist über PCIe und bringt, im Vergleich zur direkten Anbindung von Prozessoren, schlechtere (höhere) Latenzzeiten und geringere I/O-Durchsatzraten mit sich. Daher lohnt die Auslagerung nur bei Funktionen mit einigem Rechenaufwand – besonders dann, wenn eine GPU für diese Aufgaben vom Befehlssatz her (z. B. für große Matrizen) besser geeignet ist.

Weiter wird die feste Bindung an einen Hersteller kritisiert. Nutzt man CUDA, im Unterschied zu Bibliotheken für CPUs mit MMX- oder SSE-Erweiterungen (die praktisch auf allen CPUs der verschiedenen Hersteller von x86-Prozessoren laufen), so bindet man ein Programm an den GPU-Hersteller Nvidia und somit an das Vorhandensein von Nvidia-Hardware. Das inzwischen auf Vulkan/SPIR-V abgestützte OpenCL ist universeller und bietet eine Implementierung für GPUs von Nvidia, AMD (vormals ATI), VIA, S3 und Anderen. Dazu ist eine CPU-Unterstützung für x86-Prozessoren über die SSE3-Erweiterungen implementiert, weiter bietet IBM eine OpenCL-Implementierung für die Power-Architektur und die Cell Broadband Engine an. Aus dem breiteren Ansatz von OpenCL ergibt sich im Vergleich mit CUDA auf identischer Nvidia-Hardware allerdings ein merklicher Performance-Nachteil. Bei der Verwendung von OpenCL sind je nach Problemstellung Einbußen von etwa 5 bis 50 Prozent zu beobachten.

Unterstützte GPUs

Stufen der unterstützten CUDA Versionen von GPU und Karte.

Die Tesla Mikro-Architektur (Compute Capability 1.x) wird mit der CUDA-SDK Version 6.5 zum letzten Mal unterstützt.
Die Fermi Mikro-Architektur (Compute Capability 2.x) wird mit der CUDA-SDK Version 8.0 zum letzten Mal unterstützt.
Teile der Kepler Mikro-Architektur (Compute Capability 3.0) werden mit der CUDA-SDK Version 10.2 zum letzten Mal unterstützt.

Literatur

Einzelnachweise

Uses material from the Wikipedia article CUDA, released under the CC BY-SA 4.0 license.