Gerade Bildbearbeitungsprogramme wie PS oder gimp verlangsamen die Bearbeitung vieler Bilder unglaublich. darktable erlaubt mir nahezu alle meine Bilder fertig zu bearbeiten. Zeitraubendes Öffnen und Speichern der Exporte in anderen Programmen und das verwalten zusätzlicher Zwischenrepräsentationen entfällt.
Ich fürchte, wir reden mächtig aneinander vorbei.
Photoshop hatte ich anfangs dafür verwendet, um beispielsweise Sensorflecken zu entfernen. Seit Canon den Sensor-Rüttler entdeckt hat, ist das "Säubern" meiner Bilder kein Thema mehr. Nach immerhin 6 Jahren, die ich mit der 40D fotografiert hatte, habe ich nicht ein einziges Mal einen Sensorfleck gefunden, der beim Betrachten der Bilder aufgefallen wäre. Stromleitungen etc stören mich mittlerweile auch nicht mehr, sodass ich auch für sowas keine Bildbearbeitung mehr brauche. Und Bildmanipulationen, wie ich sie früher gerne aus Spaß gemacht habe (einer Glasfassade eines Bürogebäudes beispielsweise ein altes Holzfenster verpassen und derlei Dinge) unterlasse ich mittlerweile ebenfalls; das hatte seinerzeit einen gewissen Reiz für mich, ist aber mittlerweile total verflogen.
Was bleibt, sind eben die schon mehrfach von mir erwähnten Korrekturen: Verzeichnung, Vignettierung, CA's. Und genau hier sehe ich einfach nicht ein, warum ich mir das manuell antun sollte, wenn es ein Programm gibt, das genau diese Korrekturen nicht nur schneller, sondern auch präziser vornehmen kann. Ich hatte gehofft, dass das beispielsweie mit Darktable möglich ist - doch das scheint mir doch nicht der Fall zu sein. Ist zwar nicht ganz in meinem Sinne, weil ich vorhatte, komplett von Windows loszukommen - aber ein Beinbruch ist es trotzdem nicht.
Mein aktueller Workflow stellt sich so dar, dass ich DxO Optics Pro mit den RAW meiner Kamera direkt von der Speicherkarte füttere und dieses kackt daraufhin JPGs aus, die zu über 95% von mir unverändert verwendet werden. Und im Gegensatz zu den von der Kamera erzeugten JPGs sind hier bereits die Verzeichnung, die Vignettierung und die CAs in optimaler Weise korrigiert und bei Bildern mit hohem Kontrast die Lichter etwas runtergeregelt und die Schatten etwas aufgehellt worden, und zusätzlich wurden sie noch für mich perfekt entrauscht. Aufwand: maximal 5 Minuten pro Speicherkarte (abhängig von der Menge der Bilder, die ich geschossen habe = Zeit für das Kopieren der Bilder von der Speicherkarte auf die interne Platte des Rechners). Photoshop rufe ich danach nur auf, um die Bilder ins Format 16:9 zu bringen und sie auf die UHD-Auflösung meines Fernsehers zu bringen. Und falls Du wissen willst, warum ich das erst danach mache bzw in Photoshop: Das Laden von RAWs (egal in welchem Programm) dauert merkbar länger (zumindest auf meinem Rechner, der ist nun mal nicht der Schnellste) als das Laden eines JPGs. Will ich also die Bilder bereits als RAW überprüfen, würde ich wesentlich länger vor dem PC sitzen. Während DxO Optics Pro aus den RAWs die JPGs erzeugt, brauche ich ja nicht dabei sitzen, das kann der Rechner auch problemlos tun, ohne dass ich ihm dabei zusehe. Wenn ich jetzt die Bilder sichte, braucht es nur einen Bruchteil der Zeit, die ich vorher gebraucht hätte. Da reicht die Bildervorschau von Windows, um beurteilen zu können, ob die Schärfe ausreichend ist, ob der Bildausschnitt passt, ob die Lichtstimmung passt, ob die Belichtung passt etc. Und so drücke ich mich schnell durch den gesamten Bildbestand. Wenn das Bild passt, wird auf Tastendruck das nächste Bild abgerufen. Passt es nicht, entscheide ich, ob das Bild vielleicht noch zu retten wäre (wenn es schief ist, kann man es schnell gerade rücken - als Beispiel). Ist es meiner Meinung nicht zu retten, drücke ich kurz auf Delete und das Bild ist weg. Bin ich der Meinung, ich könne das Bild noch retten, dann entscheide ich, ob ich das im RAW-Konverter mache (Belichtung korrigieren beipsielsweise funktioniert im RAW-Konverter besser - ein Bild gerade richten, geht auch in Photoshop sehr gut), und dann erzeuge ich von diesem einen Bild eben ein korrigiertes JPG. Zum Schluss habe ich dann nur noch Bilder, die eine Abarbeitung in Photoshop benötigt. Einfach einen Teil der Bilder gleichzeitig in Photoshop laden und einzeln auf 16:9 bringen, verkleinern, bei Bedarf nachschärfen und abspeichern. Und schon ist das nächste Bild dran. Und die schiefen Bilder oder jene, wo die Korrektur in Photoshop vorgenommen werden sollen, werden dann gleich miterledigt.
Zeitaufwand bei einer vollen Speicherkarte (ca 500 Bilder): maximal 60 bis 90 Minuten. Danach kann meine Familie bereits die Bilder am TV anschauen.
Mir geht es also nicht um irgendwelches punktuelles Aufhellen oder lokales Schärfen etc. Im Normalfall hat niemand bei einer Bilderschau die Zeit, das Bild in der Art zu sezieren. Also ist das alles - für mich - unwichtig!

Wieso "irgendwelche" Ergebnisse?
Sei mir nicht böse, aber wenn Korrekturen ausschließlich von einem software-basierendem Algorithmus vorgenommen werden, dann empfinde ich das Ergebnis als 'irgenwie'. Und hier heißt es doch, dass für gewisse Korrekturen keine Messdaten herangezogen werden, sondern dass das nach irgendwelchen "Formeln" vorgenommen wird. Oder hab ich da was falsch verstanden?
Was willst du damit jetzt sagen? Dass die lensfun-Profile alle Mist sind?
Ich gebe nur das (in meinen Worten) wieder, was Ihr mir erzählt. Warst es nicht eh Du, der mir den Tipp gegeben hat, ich könne doch ein Bild einschicken, wenn es kein passendes Profil gibt? Was soll denn beispielsweise ein Bild vom Wiener Stephansdom bringen? Was es zum Erstellen eines korrekten Profils braucht, sind nachvollziehbare Messdaten. Um die Verzeichnung (als Beispiel) zu korrigieren, braucht es zwingend ein Bild, welches einen Raster zeigt, wo die Linien möglichst nahe beieinander verlaufen. Und dieses Raster muss so fotografiert werden, dass die Aufnahmeachse exakt im 90° Winkel zum Raster steht. Und solche Aufnahmen muss ich dann bei möglichst allen (oder vielen) Brennweiten wiederholen. Dazu wiederum ist es notwendig, dass man den Abstand entsprechend variiert. Ein UWW ist also näher an diesem Raster dran, ein Supertele entsprechend weiter weg. Wenn ich dieses Vorgehen bei möglichst vielen Brennweiten durchführe, bekomme ich ein recht gutes Profil, um die Verzeichnung eines ganz bestimmten Objektivs zu korrigieren. Wie gesagt: Da kann es unmöglich reichen, wenn ich jetzt ein Bild vom Wiener Stephansdom einschicke.
Und genauso ist es bei der Vignettierung, nur dass hier anstelle eines Rasters eine möglichst gleichmäßig ausgeleuchtete, helle (weiße) Fläche abfotografiert wird. Und zwar nicht nur für möglichst viele Brennweiten, sondern innerhalb einer einzelnen Brennweite auch mit möglichst allen Blendeneinstellungen, die das Objektiv bietet. Nur so kann ich die Helligkeit jedes einzelnen Pixels exakt feststellen, was dann eben zu den geforderten Profildaten führt. Und auch bei den CAs ist es ähnlich, da wird (vermutlich) ein Punktraster (je einmal weiße Punkte auf schwarzem Hintergrund und schwarze Punkte auf weißem Hintergrund) abfotografiert. Das ganze muss dann auch noch für jeden Kameratyp gerennt ermittelt werden (wie schon gesagt, Nikon hat bei APS-C einen Crop-Faktor von 1,5 und Canon einen von 1.6, was einen komplett anderen Aufbau der hinteren Linsengruppen beim ansonsten selben Objektivtyp bedeutet, weswegen eben nicht die Canon-Korrekturdaten für die Nikon-Version verwendet werden kann).
Kurz zusammengefasst: Um diese Objektivfehler wirklich exakt korrigieren zu können, braucht es ein bekanntes Motiv (Linienraster, weiße Fläche, Punktraster), da man sonst nicht die exakten Profildaten ermitteln kann. Mittlerweile glaube ich kaum, dass das bei Lensfun auch nur annähernd ermöglicht wird. Dort hat man ganz sicher weder die Resourcen, noch die Technik, um zu solchen Daten heranzukommen.
Ich sprach nicht nur von der Korrektur der Objektive. Das ist für mich eben nur ein Aspekt von vielen.
Nochmal, ich fürchte, wir reden aneinander vorbei. Ein RAW-Konverter erfüllt für mich grob 3 Aufgaben:
1. Das Interpretieren der RAW-Daten und das Erzeugen eines sichtbaren Bildes daraus.
2. Das Korrigieren von Fehlern, deren Ursache in den Kameras und in den Objektiven liegt. Kameraseitig sehe ich da das Rauschen, die nicht optimale Gradationskurve und die durch den AA-Filter verursachte Unschärfe - und objektivseitig sehe ich da die Verzeichnung, Vignettierung und diverse Farbfehler (CA's).
3. Sonstige Bearbeitungsfunktionen (Beschnitt, Entzerrung, Drehung, typische Bildbearbeitungsfunktionen, ...).
Wie ich oben geschrieben habe: Der Punkt 3 interessiert mich im RAW-Konverter überhaupt nicht, weil ich davon in der Regel keinen Gebrauch mache. Falls ich so eine Funktion doch mal brauchen sollte, fühle ich mich in meinem Bildbearbeitungsprogramm wesentlich wohler. Ich lösche sogar nach dem Entwickeln meiner Bilder die Dateien, welche vom RAW-Konverter automatisch angelegt werden und wo die Einstellungen für die Bearbeitung abgespeichert werden. Da ich ja eh nur mit den Standard-Einstellungen arbeite, ist das unnötiger Platzverbrauch.
Um es auch noch mal klar zu stellen, weil mir scheint, dass du da etwas komplett falsch verstanden hast: Das Modul "Objektivkorrektur" arbeitet mit Profilen, die anhand von Kalibrierungsbildern, die bestimmten Regeln folgen, erzeugt wurden -- also im Grunde Messdaten. Keine Ahnung, ob du die Links, die zu Beginn genannt wurden überhaupt gelesen hast.
Einen generischen Algorithmus setzt das Modul für die Korrektur der CAs ein, das ist aber ungleich dem Modul Objektivkorrektur.
Also vorweg: Nein, ich bin den Links nicht wirklich gefolgt. Den Grund dafür hab ich schon weiter oben vorgebracht. Meine Englischkenntnisse reichen nämlich nicht aus, um zu verstehen, was dort geschrieben steht. Du könntest mich auch auf eine Japanische Seite verweisen, das verstehe ich genauso wenig. Und die Übersetzungshilfe beispielsweise von Google hilft da auch nicht viel weiter.
Stimmt - offensichtlich verstehe ich da etwas falsch. Wie ich oben angeführt habe, sehe ich 3 Dinge, die ein RAW-Konverter können muss. Für mich der Wichtigste ist der zweite. Und all das fasse ich unter dem Begriff der Objektivkorrektur zusammen. Wieso Du (oder Darktable) das aufsplittet, ist für mich einfach nicht nachvollziehbar. Ich verstehe unter dem Begriff 'Objektivkorrektur' all jene Korrekturen, die notwendig sind, weil Objektive nicht perfekt sind. Objektive verzeichnen. Objektive vignettieren. Und Objektive erzeugen CA's. Von einem Programm, welches von sich behauptet, Objektivkorrekturen vorzunehmen, erwarte ich, dass all diese Korrekturen gleichwertig vorgenommen werden. Und nicht das eine aufgrund von Messdaten und das andere durch einen Programm-Algorithmus (wie immer der zustande kommt).
Aber egal: Ich merke, dass ich eine zu hohe Erwartung an Darktable hatte - bin aber gerade dabei, daraus die Konsequenzen zu ziehen. Und die laufen aktuell in die Richtung: Darktable wird wohl nicht das Programm meiner Wahl werden.
Einen generischen Algorithmus setzt das Modul für die Korrektur der CAs ein, das ist aber ungleich dem Modul Objektivkorrektur.
Siehe oben: Ich finde es nun mal blöde, wenn man die Fehler, die durch das Objektiv hervorgerufen werden, klassifiziert. Alle 3 Objektivfehler können durch Messung festgestellt und dadurch auch hochgradig automatisiert und perfekt herausgerechnet werden. Warum Darktable bei den CAs offensichtlich eine Ausnahme macht, weiß ich nicht. Interessant ist, dass das offensichtlich so akzeptiert wird.
Du vergreifst dich etwas im Ton. Ich weiß auch nicht, warum du dich hier so aufgeregst. Keiner der Entwickler ist dir oder irgendjemand anderes etwas schuldig. Allein deshalb hat es mit Ausreden nichts zu tun. Du könntest auch in Betracht ziehen, dass es gute Gründe dafür gibt, dass es (zumindest bislang) bei dem besagten Modul so ist, wie es ist.
Schau - ich selbst bin seit über 30 Jahre in der Software-Entwicklung tätig und war dies mehr als 20 Jahre als Anwendungsprogrammierer. Ich habe massig viele Leute kennengelernt in meiner beruflichen Laufbahn. Und ich habe gefühlt millionen Mal von diversen Entwicklern gehört "Das geht nicht!". Und für mich war das immer ein untrügliches Zeichen dafür, dass derjenige gemeint hat: "Das will ich nicht so machen!". Das Entwickeln von Software ist eigentlich ein Paradebeispiel dafür, dass man mit Teamgeist am Weitesten kommt. Zumal ich danach immer wieder auch beweisen konnte, dass es so sehr wohl gehen kann. Glaub mir, nirgendwo gibt es dermaßen viele Eigenbrödler wie in der IT-Branche. Ich bin froh, wenn ich diesen Zirkus in weniger als 5 Jahren hinter mir lassen kann. Denn dann gehe ich in meinen wohlverdienten Ruhestand.
Erzähle Du mir nichts über meine Berufskollegen.
Aber warum ich mich so aufrege? Vermutlich deswegen, weil eigentlich schon klar sein sollte, dass das Konzept von Darktable nicht meinen Ansprüchen genügen KANN, Du mir trotzdem einreden willst, dass nur mein WORKFLOW falsch wäre. Genau hier, so fürchte ich, liegt der Punkt, an dem wir aneinander vorbei reden.
Ich habe naturgemäß keine Ahnung, was genau Du in Darktable tust, welche "Bearbeitungen" Du exakt vornimmst und wie lange Du pro Bild damit beschäftigt bist. Was mich betrifft, liegen meine Präferenzen eindeutig im Minimieren der Zeit, die ich am Computer verbringe, ohne dass sich die Qualität meiner Bilder (gegenüber früher) verschlechtert. Sprich: So lange die Bilder zumindest gleich gut sind im Vergleich zu jenen, die ich noch mit Negativfilmen gemacht habe, bin ich mit dem Ergebnis zufrieden. Wie ich schon geschrieben habe, konnte ich seinerzeit auch nicht den Leuten im Labor bei jedem Bild sagen, wie sie das Bild ausarbeiten sollen (da war ich genauso auf Automatismen im Labor angewiesen, so lange ich nicht selber die Bilder zu Papier bringen wollte), genauso habe ich heute kein Problem damit, dass mir ein "Automat" hilft, die Bilder gut aussehen zu lassen. Das mag Dir vielleicht ungewöhnlich erscheinen - ist aber so. Und so wie ich seinerzeit einzelne Bilder reklamiert habe mit der Begründung (Farbstich, zu hell, zu dunkel, whatever), so lege ich allenfalls bei einzelnen Bildern dann eben selbst Hand an. So lange der Großteil der Bilder passt, die der "Automat" fabriziert, so lange sehe ich überhaupt keinen Grund, meinen Workflow zu hinterfragen.
Würdest Du ja wohl auch nicht. Warum auch. So lange Du mit den Ergebnissen zufrieden bist, besteht ja kein Grund für eine Änderung.
Wenn es aber was Besseres gibt, bin ich gerne bereit, mir das anzusehen. Wobei für mich "besser" drei Bedeutungen haben kann: a) Schnellere Bearbeitung des RAW-Konverters ... b) Weniger "Ausschuss" des RAW-Konverters (heute max 5%) ... c) schneller
und weniger Ausschuss. Ob das einzelne Bild jetzt einen Ticken besser ist, ist für mich höchst belanglos! Die maximal 10 Sekunden, die ein Bild am TV zu sehen ist, bemerkt den Unterschied kein Mensch auf dieser Welt. Und noch weniger diejenigen, die bei mir am Sofa sitzen.