Das liegt aber eher an der Erwartungshaltung, die er aufgrund seiner mathematischen Schwäche hat.
Nee, das liegt daran, dass LR teilweise beschämend schlecht daherkommt! Ansonsten wusste er einfach, dass du ganz toll nachrechnen kannst und das klarstellst

.
Ich finde das Video sehr gut (wirklich auch angenehm gemacht), vor allem 2 Dinge waren für mich hilfreich. Danke an NikonDxx

.
1) Das mit den virtuellen Kopien ein- und desselben Gesichts, dass dann totzdem nicht als gleich erkannt wird, ist schon ein schlechter Scherz, oder? Aber viel wichtiger ist, dass man durch diese Erkenntnis die Gesichtserkennung wirklich getrost ad acta legen kann, bis Adobe evtl. nachbessert. Einfacher als 3 identische Bilder geht ja nicht und wenns da schon versagt? Aber wie gesagt, der Anfang ist gemacht und es muss ja noch Raum für Folgerversionen geben

.
2) Der Maskenpinsel für den Gradientenfilter - WAH, der ging mir voll durch die Lappen und ist wirklich genial. Ich würde (für mich zumindest) behaupten, der alleine ist fast ein Updategrund. Ich glaube in 90% meiner Bilder habe ich Bäume, Schornsteine oder Telefonleitungsmasten im Himmel und hab deshalb auf den Filter in LR verzichtet.
Aber lustig an dem Video ist wirklich, dass er sich anfänglich noch sehr zurückhält mit deutlicher Kritik und gegen Ende immer angepi**ter wird

. Spätestens bei der Diashow und dem Vergleich mit jeder x-beliebigen Freeware war er dann wohl endgültig nicht mehr 'amused' ... irgendwie nachvollziehbar

.
Sollte man durch die GPU Unterstützung erwarten, dass LR schneller läuft, so würde ich eher damit liebäugeln, den Arbeitsspeicher des PC zu erweitern oder eine SSD einzubauen. Damit wird nicht nur LR schneller, sondern das ganze Betriebssystem.
Also wenn jemand wirklich flott mit LR arbeiten will, sollte die SSD im Rechner sowieso Standard sein, ebenso wie ausreichend RAM. Oft wird auch die nötige Geschwindigkeit der Ablage für die RAWs unterschätzt. Da bringen schnelle Systeme, z.B. ein RAID, auch einiges. Jedenfalls denke ich, dass es genug Leute gibt, die einen 'ernsthaften' PC mit LR beschäftigen und mit der GPU einfach eine weitere Beschleunigungsmöglichkeit suchen.
Ob heise.de sich mit den Umständen einen Gefallen tut, steht auf einem anderen Blatt (ich hielt die bisher für mit die kompetenteste Fotozeitschrift am Markt und zwar aus dem Stand, genauso wie die Mac-Zeitschrift).
Ich finde zu viele Publikationen, mittlerweile leider auch bei Heise, gehen aufs 'Mittelmaß' ein. Vermutlich um möglichst viele Leser anzusprechen. Aber mal ehrlich, wer benutzt denn Lightroom und noch dazu so intensiv, dass man sich z.B. hier wiederfindet oder eben Artikel darüber studiert? Eben. Dann wird aber so lapidar erwähnt, dass "man LR besser nicht auf irgendwelchen hardwareschwachen Mobilrechnern" installiert

. Ach was Heise! Darauf aufbauend wird dann viel gelabert, das der engagierte Anwender eh hinter sich hat. Insofern ist der Artikel nicht so verwunderlich. Gerade von c't würde ich mir mal wieder minutiös genau recherchierte Daten erwarten. Früher hätten die den Leistungsbedarf der GPU abgezapft und JEDE Funktion durchleuchtet. Oder eben recherchiert, WO die x Sek. beim Exportieren bleiben. DASS es in LR5 x und in LR6 y Sekunden für dies und das dauert kann jeder mit einer Stopuhr messen ...

.