Hackumenta

2019-10-03, 19:00–19:45, Proxima b

Eine grundlegende Einführung in die Programmierung paralleler Tasks auf Grafikkarten von NVIDIA.


Was an Grafikkarten cool ist? Wer über das Alter hinaus ist, in dem man beim Gedanken an Grafikkarten einzig an Spiele und möglichst hohe FPS denkt, weiß sicherlich, dass Grafikkarten für etliche weitere Zwecke zum Einsatz kommen. Hier produzieren sie Cryptowährungen in Mining-Farmen, dort errechnen sie Hashes für alle möglichen Zeichenkombinationen, um auf Passwörter rückschließen zu können.
Doch wie funktioniert das eigentlich? Wie kann ich meine Grafikkarte programmieren? Wieso nutzen die Programme auf meinem Rechner nicht alle die Grafikkarte, wenn sie doch von einem so beeindruckenden Leistungsplus profitieren könnten? Und wieso möchte ich bei NVIDIA-Grafikkarten eigentlich immer die mit möglichst vielen CUDA-Cores kaufen, obwohl ich keine Ahnung habe, was die tun.

Dieser Talk beleuchtet anhand von NVIDIAs CUDA die genannten Fragestellungen, weist auf architekturbedingt Beachtenswertes hin und vermittelt, dass man seine CPU nicht wegwerfen sollte. Gekrönt wird der Vortrag von einem Blick auf Optimierungsstrategien, die in einem echten Codebeispiel Anwendung finden.