Profitieren schon.
Es sind ne ganze Menge Filter dazugekommen, die per CUDA, allerdings auch per OpenCL, die Grafikkarte zur Mitarbeit überreden können.
Es sind nicht mehr nur Bilddrehungen und Transformationen, die die Graka mit anzapfen.
Das bringt je nach dem Aufwand, der vom Rohmaterial bis zum präsentationswürdigen Bild betrieben wird, schon mal ein paar zehntel bis vieleicht sogar ganze Sekunden Zeitersparnis.
Lohnt für den Creativling eher weniger, weil es nun mal nicht wirklich was ausmacht, ob man bei vier, fünf Minuten in Summe fürs Bild, eine paar Zehntel oder sogar zwei drei ganze Sekunden spart.
Lohnt für den geborenen und eher wenig kreativen Stapelverarbeiter, wenn er mehrere hundert Fotos mit exakt den gleichen Scripten durch die Mangel dreht, aber eben doch.
Im Prinzip sind die zeitlichen Einsparungen aber nur dann wirklich für ihn interessant, wenn der Prozessor mit nur wenigen Kernen und zudem im Schneckentempo arbeitet.
Von einem Celeron-Dual oder einem Celeron war bisher aber nie die Rede.
Und wirds garantiert auch weiterhin nicht sein ...
Was Anderes, wenn man Videos in HD- und 4k-Auflösung zu beackern wünscht.
So man dafür überhaupt die nötige Software- und Hardwarevoraussetzungen auf dem System und der Kamera befriedigt bekommt ...
Dies gleicht ja sozusagen einer sehr aufwändigen Foto-Stapelverarbeitung. Hier sind je nachdem, was die Grafikkarte mit in die Waagschale zu werfen hat, echt spürbare Zeiteinsparungen zu verzeichnen.
Das kann, nach Meinung der Experten, schon mal 30% bis 40%, und wenn man die absolute HighEnd-Karte nimmt, sogar noch etwas mehr ausmachen.
Für sowas dann aber, weil der Chipsatz beim Codieren und Decodieren von H.264-Material seinen Teil beiträgt, lieber auf ein Z77- oder ggf Z68-Mainboard setzen.
Es geht, aber allem Geschwindigkeits- oder Performance-Wahn zum Trotz, mit ner IGP auf einem H77- oder B75-Brett nicht so schlecht bzw langsam, daß man daran verzweifeln müßte.