• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 30.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Streit um Digital/Analog und warum 12MP reichen

natürlich. bloß wie?
EBV
und wie schon gesagt. ein scanner macht etwas anderes als ein digitaler foto-sensor. ein scanner tastet ab. punkt für punkt, zeile für zeile.
ein foto nimmt auf. ich denke, aber auch hier lasse ich mich gerne korrigieren, da besteht sehr wohl ein unterschied.
Für das einzelne Pixel besteht kein Unterschied, es dauert nur länger, die Pixel zeilenweise zu belichten statt auf einmal.
und dann wäre da noch das von mir oben angesprochene problem der farbintigrität. photoshop und sämtliche raw-konverter sind nicht in der lage diese zu bewahren.
Könntest Du erklären, was "Farbintegrität" sein soll, bzw. die Definition herbeischaffen? Ich habe auf die Schnelle nichts gefunden. Das, was die von Dir verlinkte Softwarefirma schreibt, kapiere ich nämlich nicht:

"Unter dem im Zusammenhang mit ColorNeg und ColorPos verwendeten Begriff der Farbintegrität verstehen wir die Eigenschaft eines Bildes die abgebildete Szene nach dem Herbeiführen einer geeigneten Farbbalance so naturgetreu wie technisch möglich wiederzugeben. Diese Eigenschaft war in der analogen Fotografie seit jeher gegeben. Sie fehlt jedoch in weiten Teilen der digitalen Fotografie, wie durch das Fehlen eines Äquivalents zu CC-Filtern (Farbkompensationsfiltern), dem in der analogen Fotografie unverzichtbaren Werkzeug zur Farbkorrektur, deutlich wird."


Ein Äquivalent zu den analogen Farbkorrekturfiltern würde ich digital im "Weißabgleich" sehen, außerdem, was hindert einen, auch an der Digi Konversionsfilter zu verwenden? Außerdem habe ich irgendwie das Gefühl, dass die in Photoshop die Menüpunkte für Farbkorrekturen noch nicht gefunden haben. Und was bedeutet "naturgetreu" in Bezug auf Farben? Natürliche Wiedergabe der Lichtfarbe (Rotstich bei Kunstlicht und Sonnenuntergang drinlassen) oder Eichung auf einen Referenzwert, z.B. 5500K (Adieu Abendstimmung)? Früher hat einem diese Entschiedungen meistens das Labor abgenommen.
 
Weißabgleich alleine hilft aber nicht, ein digitaler Sensor müsste man eigentlich wie einen unkalibrierten Monitor per Farbmanagement kalibrieren lassen. Der Sensor spuckt einfach nicht annähernd naturgetreue Farben heraus.

Ansonsten man schaue immer diese unterschiedlichen Farbtestchartergebnisse bei dpreview.com an, jede Kamera zeigt unterschiedliche Farben an selbst bei eingestellten manuellen Weißabgleich etc. etc.. ;) :rolleyes:

Ich bin mir nicht sicher, ob ein Scanner auch Bayer Interpolation hat...

http://www.univie.ac.at/fotografie/analog/scannerarten.htm

Auch das was hier Ken schreibt, ist gar nicht mal so falsch, das ist sehr viel fachgesimpel mit jeder Menge Wahrheit zumindest bei den ersten Abschnitten:
http://www.kenrockwell.com/tech/film-resolution.htm

http://www.imx.nl/photo/technique/page153/page153.html
 
Zuletzt bearbeitet:
Hm, also ich komme aus der S/W-Analogen Ecke (Canon AE-1, leider kommt mittlerweile am Scharnier Licht durch, weil sich der einstmalige Schaumstoff in irgendetwas ekliges Klebriges verwandelt hat, aber naja ...).
An meiner Schule hab/hatte ich die Möglichkeit selbst zu vergrößern, was ich natürlich auch genutzt habe.

Und genauso wie nun bei der Digitalfotografie musste ich oft auch arg an meinen Bildern rumdrehen. Viel Filterei, manchmal auch Filme gepusht. Ob jetzt EBV, oder "handwerkliche" Bearbeitung. Für mich dasselbe.

Für mich haben beide Systeme einfach nur einen anderen Charme, was aber wohl auch daran liegt, dass ich ausschließlich analoge S/W-Fotografie betreibe. (.. und mit billigen Japaner-Filmen fotografiere)
Oft streife ich einfach mit beiden Systemen herum, da ich sowieso nicht viel Ausrüstung besitze und entscheide dann vor Ort, ob analog oder digital. Hauptsache ich habe meinen Spaß und schaffe, dass was ich mit dem Bild vorhatte zu erreichen.
 
Für das einzelne Pixel besteht kein Unterschied, es dauert nur länger, die Pixel zeilenweise zu belichten statt auf einmal.

Aber es findet eben keine Farbinterpolation statt wie bei den Bayer-Sensoren.

Könntest Du erklären, was "Farbintegrität" sein soll, bzw. die Definition herbeischaffen? Ich habe auf die Schnelle nichts gefunden. Das, was die von Dir verlinkte Softwarefirma schreibt, kapiere ich nämlich nicht:

"Unter dem im Zusammenhang mit ColorNeg und ColorPos verwendeten Begriff der Farbintegrität verstehen wir die Eigenschaft eines Bildes die abgebildete Szene nach dem Herbeiführen einer geeigneten Farbbalance so naturgetreu wie technisch möglich wiederzugeben. Diese Eigenschaft war in der analogen Fotografie seit jeher gegeben. Sie fehlt jedoch in weiten Teilen der digitalen Fotografie, wie durch das Fehlen eines Äquivalents zu CC-Filtern (Farbkompensationsfiltern), dem in der analogen Fotografie unverzichtbaren Werkzeug zur Farbkorrektur, deutlich wird."


Ein Äquivalent zu den analogen Farbkorrekturfiltern würde ich digital im "Weißabgleich" sehen, außerdem, was hindert einen, auch an der Digi Konversionsfilter zu verwenden? Außerdem habe ich irgendwie das Gefühl, dass die in Photoshop die Menüpunkte für Farbkorrekturen noch nicht gefunden haben. Und was bedeutet "naturgetreu" in Bezug auf Farben? Natürliche Wiedergabe der Lichtfarbe (Rotstich bei Kunstlicht und Sonnenuntergang drinlassen) oder Eichung auf einen Referenzwert, z.B. 5500K (Adieu Abendstimmung)? Früher hat einem diese Entschiedungen meistens das Labor abgenommen.

wird hier auf englisch genau erklärt: http://www.c-f-systems.com/Docs/CompleteColorIntegrityCFS-276.pdf
ab seite 26 finden sich übrigens einige beispiele. auch wird dort der unterschied zwischen farbbalance und farbintegrität dargestellt.

du kannst dich auch mal hier (http://www.colorneg.de/colorintegrity.html) im letzten abschnitt durch das beispiel klicken. ein klick auf die links im text ändert das bild in der mitte und macht die unterschiede deutlich.

naturgetreu bedeutet übrigens nicht eine möglichst natur-ähnliche abbildung, sondern ein erhalt der im original aufgenommen farben und ihren beziehungen untereinander.

wenn ich an einem (analogen) farbvergrößerer mittels cc-filtern die farbwirkung des bildes verändere betriffen diese filter ja immer das ganze bild. photoshop macht eben genau das nicht. je nach korrektur werden nur einzelne pixel geändert. genau das führt zu einer nicht naturgetreuen farbwiedergabe.

die genauen probleme mit photoshop werden im verlinkten pdf ab seite 19 erklärt.
 
So weit ich sehe, hat hier niemand die Existenz der Bayer-Sensoren angezweifelt. Man müsste jetzt nur beweisen, dass Bayer-Sensoren destruktiver als analoger Film sind. Nach der Interpolation liegen die farbigen Pixel auch beim Bayer-Bild nebeneinander, bzw. in drei Schichten übereinander (Farbkanäle).

Wikipedia bringt auch noch andere Dinge zutage: http://de.wikipedia.org/wiki/Netzhaut

Zitat:
"Menschen sind Trichromaten, d.h. sie besitzen drei Zapfenarten mit unterschiedlichen Absorptionsmaxima. Vereinfacht kann man sagen, dass es rotempfindliche, grünempfindliche und blauempfindliche Zapfen gibt. Das Nervensystem kombiniert die Signale der drei Zapfenarten, um Licht einer bestimmten Spektralverteilung eine Farbe zuzuordnen."

Hört sich eher nach Bayer als nach Foveon und Farbkuppler an.
Ich bin mir nicht sicher, ob ein Scanner auch Bayer Interpolation hat...
Auch hier funktioniert die Wiki: http://de.wikipedia.org/wiki/Scanner_(Datenerfassung)
Weißabgleich alleine hilft aber nicht, ein digitaler Sensor müsste man eigentlich wie einen unkalibrierten Monitor per Farbmanagement kalibrieren lassen. Der Sensor spuckt einfach nicht annähernd naturgetreue Farben heraus.
Auf was Kalibrieren? Das Umgebungslicht ist eine Variable. Dann hätte man ja auch den Film kalibrieren müssen... hat man ja auch manchmal: Kunstlicht- und Tageslichtfilm. Möchtest Du vielleicht zwischendurch immer Sensor wechseln müssen, wenn sich das Licht ändert?
Ansonsten man schaue immer diese unterschiedlichen Farbtestchartergebnisse bei dpreview.com an, jede Kamera zeigt unterschiedliche Farben an selbst bei eingestellten manuellen Weißabgleich etc. etc.. ;) :rolleyes:
Diese Tests gab es früher in derselben Form in den Fotofachzeitschriften auch für Filme, mit selbem Ergebnis.
 
wenn ich an einem (analogen) farbvergrößerer mittels cc-filtern die farbwirkung des bildes verändere betriffen diese filter ja immer das ganze bild. photoshop macht eben genau das nicht. je nach korrektur werden nur einzelne pixel geändert.
Schon mal was von der Funktion "Farbbalance" in Photoshop gehört? Die ist genau dafür da. Davon abgesehen kann es manchmal auch ganz nützlich sein, tatsächlich nur bestimmte Pixel zu verändern, bzw. eine selektive Farbkorrektur vorzunehmen, z.B. nur für die Lichter oder nur für die Schatten, nur für bestimmte Farbtöne oder für selektierte Bildbereiche. So was konnte man analog überhaupt nicht.
die genauen probleme mit photoshop werden im verlinkten pdf ab seite 19 erklärt.
Selten so einen ausgemachten Blödsinn gelesen. Interessanterweise sind die ganzen seitenlang dargestellten Probleme dann aber ganz einfach durch ein käufliches Plugin zu lösen, das im Grunde genommen auch nichts anderes macht, als was man selber machen könnte, wenn man sich mit Photoshop auskennen würde :rolleyes: Das Ganze erinnert mich ein wenig an diese Erdstrahlenabschirmgeräte, die man sich unters Bett stellen kann.
 
Auf was Kalibrieren? Das Umgebungslicht ist eine Variable. Dann hätte man ja auch den Film kalibrieren müssen... hat man ja auch manchmal: Kunstlicht- und Tageslichtfilm. Möchtest Du vielleicht zwischendurch immer Sensor wechseln müssen, wenn sich das Licht ändert?

Nö, die Sensorspezifischen Farbungenauigkeiten größtmöglich bereinigen:
http://www.filmscanner.info/Kameraprofilierung.html

Weißabgleich ist etwas anderes, da geht es salopp ausgedrückt darum die richtige Farbtemperatur bzw. das was weiß sein soll auch weiß darzustellen.

Mit anderen Worten jeder Sensor nimmt andere Farben auf, selbst mit gleichen Weichabgleichseinstellungen wird man unterschiedliche Ergebnisse produzieren.

Nicht umsonst gibt es noch ISO normierte Farbtestcharts.

Übrigens du hast immer noch nichts von el.ninos eigentlicher Aussage über die Bayer Interpolation verstanden.
Ein CCD oder CMOS Sensoren mit echten 3 Farb-Sensoren bzw. übereinanderliegenden sensoren bringt, den Vorteil, dass man Details erhalten kann, die so nicht mit einer Bayer Interpolation möglich wären. Zudem ist eine Bayer Interpolation kein echtes RGB, durch die Unterschiede der Farbverteilung ist auch schnell erklärt warum normale Digitalkameras mit Bayer Interpolation in den unterschiedlichen Farbkanälen R,G,B unterschiedlich rauschen. (Da nur 25% des blauen und roten Lichts aufgenommen werden)

Bei einer Bayer Interpolation bräuchte man definitiv mehr Auflösung um Details zu erhalten bzw. feine Strukturen/Details wiederzugeben, als mit einen Sensor oder Film der keine Bayer Interpolation hat. Ich verstehe nicht, was man daran nicht verstehen sollte.

Ist doch ganz einfach, durch die mosaikartige Aufnahme der Bilder bei einen Bayer Pattern-Sensorn gehen feine Details verloren. Um das wieder wett zu machen bedarf es einer hohen Auflösung.

Es ist beispielsweise schon ein enormer Unterschied, wenn man eine 10 MP Kamera mit einer 24,6 MP Kamera vergleicht. Strukturen von Wiesen und Ästen und noch filligraneres etc. lassen sich mit einer High-MP Kamera deutlich besser auflösen. 10 MP klingt nach viel sicherlich, aber mit einer 10 bis 12 MP Kamera hat man schon in diversen Situationen Schwierigkeiten feine Details wiederzugeben, das liegt sowohl am AA-Filter als auch an der Bayern Interpolation und nicht nur an der Auflösung alleine.

Mit anderen Worten die Bayern Interpolation hat auch ihre großen Nachteile. Nicht umsonst benutzen professionelle Camcorder/Filmkameras meistens auch 3 Farb-Sensoren.
 
Zuletzt bearbeitet:
Mit anderen Worten jeder Sensor nimmt andere Farben auf, selbst mit gleichen Weichabgleichseinstellungen wird man unterschiedliche Ergebnisse produzieren.

Keine Frage. Aber genau zu diesem Zweck gibt es ja in den RAW-Konvertern z.B. Kameraprofile. Das ist doch gerade der Witz an der Digitaltechnik: wenn ich einigermaßen saubere (also: nicht geklippte, nicht zu stufig gesampelte) Daten habe, dann kann ich aus diesen praktisch jeden beliebigen Look berechnen.
 
arne9001, das habe ich ja auch nicht angezweifelt, wollte leidiglich species 8472, mal erklären warum Farbmanagement auch bei der Kamera sinnvoll sein kann. ;)

Auch sehe ich das ganze so, dass Digital mehr flexible Vorteil in der Bildbearbeitung bringt. ;) In der Dunkelkammer geht sicherlich Bildretusche nicht in der Form wie es heutzutage digital geht.
 
arne9001, das habe ich ja auch nicht angezweifelt, wollte leidiglich species 8472, mal erklären warum Farbmanagement auch bei der Kamera sinnvoll sein kann. ;)

Auch sehe ich das ganze so, dass Digital mehr flexible Vorteil in der Bildbearbeitung bringt. ;)


Ah, da bin ich bei Dir.

Bei RAW ist das ja kein Thema, da *muss* das FM ja hinterher passieren (jedenfalls wenn's echtes RAW ist), aber für JPG wäre es sicher praktsich, wenn man tiefer als über ein paar Fuzzelparameter oder Picture-Styles in die konkrete Farbgebung eingreifen könnten. Eben vielleicht durch ein auf die Kamera ladbares Farbprofil.

Da ich gottseidank alles in RAW shooten kann (da ich nie Zeitdruck habe) ist's mir persönlich allerdings Wurscht. Wie gesagt: zugegebenermaßen mein privater Standpunkt...
 
arne9001, das habe ich ja auch nicht angezweifelt, wollte leidiglich species 8472, mal erklären warum Farbmanagement auch bei der Kamera sinnvoll sein kann. ;)

Auch sehe ich das ganze so, dass Digital mehr flexible Vorteil in der Bildbearbeitung bringt. ;) In der Dunkelkammer geht sicherlich Bildretusche nicht in der Form wie es heutzutage digital geht.
So wie ich das sehe, hat er DAS ja gerade nicht angezweifelt.

Was ICH aber ganz stark anzweifle ist, dass man digitalisierten Analogbildern die "originale" Anmutung auf Grund der Tatsache ansehen kann, dass sie analog aufgenommen und bearbeitet wurden. Was man ihnen in ansehen kann ist die Aussage, das Gefühl, die Stimmung, die der Fotograf dem Bild durch seine Gestaltung mitgegeben hat, wenn die Digitalisierung gut genug war um sie nicht zu zerstören. Jetzt ist das Ergebnis digital. Der Weg dort hin, ob chemisch oder digital, ist völlig wurscht, solange das Ergebnis das selbe ist. Der Fotograf/Künstler wäre mit dem Werkzeug "Digitalfotografie" genauso dazu in der Lage, diese Eindrücke zu erzeugen, wenn er dieses Werkzeug genauso beherrscht wie die Analogfotografie.
Jedes fotografisch aufgenommene Bild ist eine Reproduktion. Das digitalisierte Bild eines Analog"original"aufsichtsbildes ist die Reproduktion einer Reproduktion. Es ist ein digitales Bild mit noch mehr das Original verändernden Bearbeitungsstufen. Dann doch gleich "Original-Digital".

Nachtrag:
Ein analoges Bild auch als analoges Bild anschauen!
Auch für mich hat eine analoges Bild ein anders "Leben". Beim genaueren Hinsehen entpuppt sich das dann als Körnung wie ich es eben seit den ersten Bildern, die mir mein Großvater gezeigt hat, gewohnt bin. Das ist immerhin ca. 45 Jahre her. An so etwas gewöhnt man sich (Sozialisierung). Vielleicht ist es ja so, dass man Digitalbildern, die noch ein klein wenig rauschen, diese "Anmutung" nachsagen könnte. Kann es sein, dass deshalb die analoge Anmutung mit ihren ganz spezifischen Unzulänglichkeiten von älteren Fotografen eher bevorzugt wird?
 
Zuletzt bearbeitet:
wollte leidiglich species 8472, mal erklären warum Farbmanagement auch bei der Kamera sinnvoll sein kann. ;)
Dann haben wir uns da missverstanden. Du hast davon gesprochen, den Sensor zu kalibrieren, das habe ich wohl zu wörtlich genommen. In Deinem Link wird übrigens auch nicht die Kamera selbst kalibriert, es wird lediglich ein Profil erstellt, schreibt er ja selber:

"Die ICC-Profilerstellung und die automatische Bildkorrektur anhand des Profiles erfolgt im PC mit einer speziellen Software, also nicht in der Kamera.

Zur Klarstellung sei noch einmal gesagt, dass die Digitalkamera von der Profilierung nichts mitbekommt"


Vielleicht habe ich ja irgendwo den Faden verloren, aber ich war überzeugt davon, dass es hier noch um den Unterschied zwischen Digital und Film geht. In dem Zusammenhang: Wie würde man denn eine analoge Kamera kalibrieren?
Übrigens du hast immer noch nichts von el.ninos eigentlicher Aussage über die Bayer Interpolation verstanden.
Ein CCD oder CMOS Sensoren mit echten 3 Farb-Sensoren bzw. übereinanderliegenden sensoren bringt, den Vorteil, dass man Details erhalten kann, die so nicht mit einer Bayer Interpolation möglich wären. Zudem ist eine Bayer Interpolation kein echtes RGB...
Mir sind die Nachteile von Bayer-Sensoren schon bewußt, aber auch hier war ich noch beim Gegensatz Digital/Analog. Die Frage ist doch, ob ein anders konstruierter Sensor der analogen Touch (den, Vorzügen, die einige hier bei Film wahrnehmen) näher kommen oder sogar erreichen könnte. Wenn man das grundsätzlich für möglich hält, gibt's keinen Gegensatz mehr.

Wobei ich sagen muss, dass ich das Besondere, dass analoger Film haben soll, immer noch nicht sehen kann. Leugnen tue ichs ja gar nicht, ich könnte mir schon vorstellen, dass man zwischen einem perfekt ausgearbeiteten Baryt-Abzug einer analogen Aufnahme und einem ebenso perfekten Tintenstrahldruck eines Digitalfotos einen Unterschied sehen könnte. Sobald man's dann aber einscannt und ins Web stellt, ist davon nichts mehr übrig.
 
Selten so einen ausgemachten Blödsinn gelesen. Interessanterweise sind die ganzen seitenlang dargestellten Probleme dann aber ganz einfach durch ein käufliches Plugin zu lösen, das im Grunde genommen auch nichts anderes macht, als was man selber machen könnte, wenn man sich mit Photoshop auskennen würde :rolleyes: Das Ganze erinnert mich ein wenig an diese Erdstrahlenabschirmgeräte, die man sich unters Bett stellen kann.

Lies mal weiter. Ist doch alles mit einfacher Mathematik erklärt.
 
Ja mit *falscher* Mathematik... Der Sinn einer Tonwertkorrektur ist es eben *keine* lineare Veränderung durchzuführen.
 
Dann haben wir uns da missverstanden. Du hast davon gesprochen, den Sensor zu kalibrieren, das habe ich wohl zu wörtlich genommen. In Deinem Link wird übrigens auch nicht die Kamera selbst kalibriert, es wird lediglich ein Profil erstellt, schreibt er ja selber:

"Die ICC-Profilerstellung und die automatische Bildkorrektur anhand des Profiles erfolgt im PC mit einer speziellen Software, also nicht in der Kamera.

Zur Klarstellung sei noch einmal gesagt, dass die Digitalkamera von der Profilierung nichts mitbekommt"


Ja und? Es ist Farbmanagement, dass du dich so an Begrifflichkeiten dich jetzt fest nagst. :evil: Letzten Endes ist es aber eine Kalibrierung, wenn du die Profile benutzt bei RAW-Bildern, wozu gibt es wohl die entsprechenden Einstellungen selbst bei PS?

Übrigens dann wären ja Monitore auch nicht kalibriert, nur weil sie Profile benutzt. Was sollen das hier für Aussagen bitte schön deinerseits sein?

Kann es sein, dass deshalb die analoge Anmutung mit ihren ganz spezifischen Unzulänglichkeiten von älteren Fotografen eher bevorzugt wird?

Glaub ich kaum ich gehöre zur jüngeren Generation und mag beides:
Analog und Digital.

Schließlich habe ich sowohl digitale Bodys als auch analoge Bodys, sicherlich benutze ich digital mehr, da es eindeutig der flexiblere Weg ist, wenn man die Nachbearbeitung von Bildern außer Acht lässt. Ich finde zur Fotografie gehört die analoge Technik mit Film und Chemie einfach dazu.

Aber das hier immer welche die Unterschiede zwischen Analog und Digital immer noch nicht begreifen und sich den digitalen Sensor perfekt reden. Ist mir schleierhaft. Übrigens Analog wird eben keine sauberen Ergebnisse liefern können wie digital, das ist jedem auch klar.
 
Zuletzt bearbeitet:
Ja mit *falscher* Mathematik... Der Sinn einer Tonwertkorrektur ist es eben *keine* lineare Veränderung durchzuführen.
Jou, und wie war das noch mit Abwedeln, Nachbelichten, Maskieren, Gegenmasken zur Gradationsverflachung, unscharf Maskieren:D, weich oder hart entwickeln, Feinkornentwicklung ... und so weiter.
Eigentlich hat sich gar nichts geändert. Oder anders ausgedrückt:
Ob ich mit dem ICE oder dem Auto nach München fahre, an München ändert sich nichts. Das Gefühl bei der Ankunft kann anders sein, denn nach der Autofahrt ist man müder als nach der Fahrt mit dem ICE und man sieht München vielleicht erstmal "mit anderen Augen".
 
Wobei ich sagen muss, dass ich das Besondere, dass analoger Film haben soll, immer noch nicht sehen kann. Leugnen tue ichs ja gar nicht, ich könnte mir schon vorstellen, dass man zwischen einem perfekt ausgearbeiteten Baryt-Abzug einer analogen Aufnahme und einem ebenso perfekten Tintenstrahldruck eines Digitalfotos einen Unterschied sehen könnte. Sobald man's dann aber einscannt und ins Web stellt, ist davon nichts mehr übrig.

Die Eingangsfrage hier in diesen Thread war aber, ob 12 MP reichen um analoge Fotografie die Stirn zu bieten und dies wurde bereits hier in diesen Thread mehrmals widerlegt, spätestens durch Stuessis Bilder. ;)

Und diversen Internetlinks und einfachen Rechnereien. Sicherlich man kann analoge Bilder nicht in Pixelzahlen bezüglich ihrer Auflösung angeben. Aber in lp/mm dagegen schon.

Man braucht mehr als 12 MP. Warum werden wohl Nikon-Coolscan Scanner mit viel dpi-Auflösung angeboten, die in Megapixel gerechnet mehr als 12 MP bieten? Das ist sicherlich kein Marketinggag.

Mir sind die Nachteile von Bayer-Sensoren schon bewußt, aber auch hier war ich noch beim Gegensatz Digital/Analog. Die Frage ist doch, ob ein anders konstruierter Sensor der analogen Touch (den, Vorzügen, die einige hier bei Film wahrnehmen) näher kommen oder sogar erreichen könnte. Wenn man das grundsätzlich für möglich hält, gibt's keinen Gegensatz mehr.

Ging es hier um den analogen Touch? Hier war eher die Frage nach der Auflösung (Anolog vs. Digital) und Abzügen, wie gut da die Qualität ist. Der Threaderöffner hat sich aber alleine schon durch diesen unsachlichen Test des Videos disqualifiziert. ISO 400 Filme sind zu grobkörnig. Für derartige Poster. Und zu Analogzeiten würde für sowas wohl eher eine Mittelformatkamera oder Großformatkamera genutzt werden.

Eigentlich könnte man hier den Thread schließen, da hier weiterhin rigeros vom eigentlichen Thema abgelenkt wird. Und man schon vom ,,Analogen Touch" redet, den es so nicht gibt, da jeder Film unterschiedliche Charakteristiken hat, von der Körnigikeit bis hin zu der Sättigung etc. Was sollte der analoge Touch sein, etwa die Körnigkeit? Ich glaube hier wird man langsam sich in Begriffsstutzigkeiten stürzen und Neologismen bekommt man noch zu Hauf dazugeboten.

Denn es gibt analoge Touchscreens.

http://img.alibaba.com/photo/50373143/Analog_Touch_Screens.jpg
http://de.wikipedia.org/wiki/Datei:Touchscreen.png

Aber das was du meinst ist wohl digitalen Bildern einen gewissen analoge Anmutung bzw. Feeling zu geben?
Dafür gibt es doch Programme wie DxO Filmpack. Aber digital bleibt bekanntlich digital.

Und analogen Film wird man auch kaum 100% digital transferieren können. Das ist doch das Hauptproblem oder kann man wirklich 100% sämtliches Korn einfangen und das farbneutral bis zum geht nicht mehr mit allen Details, so dass es ein perfektes digitales Abbild/Kopie vom analogen Film wäre? Es wäre immer nur eine Annäherung dessen.

Alleine der Druck der im Video gezeigt worden ist, war bestimmt ein Analog->Digitaltransfer. Es wurde einfach der ISO 400 Film digital abgescannt in einer dpi-Auflösung von der wir nichts wissen, auch wissen wir nicht mit was überhaupt der Film gescannt worden ist. Und der Druck ist auch sehr schleierhaft.

Man hätte eigentlich wenn dann in viel kleineren Druckgrößen vollständig analog machen sollen beim analogen ISO 400 Film. Und das digitale Bild vollständig digital ausdrucken lassen. Besser wäre auch gewesen feinkörnigeren Film zu nutzen oder gar wirklich feinkörnige Schwarz/Weiss Filme.

Oder wie ich bereits öfters gesagt hatte:
Einfach Diafilm nehmen und das Digitalbild projezieren.
 
Zuletzt bearbeitet:
Ging es hier um den analogen Touch? Hier war eher die Frage nach der Auflösung (Anolog vs. Digital) und Abzügen, wie gut da die Qualität ist...

Eigentlich könnte man hier den Thread schließen, da hier weiterhin rigeros vom eigentlichen Thema abgelenkt wird. Und man schon vom ,,Analogen Touch" redet, den es so nicht gibt, da jeder Film unterschiedliche Charakteristiken hat, von der Körnigikeit bis hin zu der Sättigung etc. Was sollte der analoge Touch sein, etwa die Körnigkeit? Ich glaube hier wird man langsam sich in Begriffsstutzigkeiten stürzen und Neologismen bekommt man noch zu Hauf dazugeboten.
Mit "Touch" versuchte ich kurz und bündig auszudrücken, was z.B. hier von el.nino dargelegt wurde:
ja, die farben. für mich waren die schlussendlich das k.o.-kriterium gegen die digitale fotografie.
ich behaupte jetzt mal, dass ich weiss gott nicht wenig ahnung von photoshop, digitaler bildbearbeitung etc. habe, aber die farben habe ich einfach nie so hingekriegt wie ich sie gerne hätte. auch habe nur sehr sehr wenige digital entstanden bilder gesehen bei denen es gepasst hätte.
wohl gemerkt für meinen geschmack.

ich wage fast zu behaupten, wenn es nicht stimmt möge man mich bitte korregieren, dass die ursache des ganzen "problems" in der art der farberfassung liegt.
während bei filmmaterial die farbkuppler nur ein produkt unserer natur sind (chemischer prozess) sind es bei der digitalfotografie berechnungen aus verschiedenen sensoren.
vielleicht ist das der grund warum "analoge" farben einfach natürlicher (im sinne von aus der natur entstammend - soll nicht heissen "realitätsnah") aussehen - farbverschiebungen eingeschlossen.
"digitale" farben haben zumindest für mich immer einen sehr künstlichen, synthetischen eindruck.
Wenn ich es recht mitbekommen habe, seid ihr ja beide Befürworter des analogen Vorteils, allerdings scheint ihr euch nicht ganz einig darüber zu sein, worin der jetzt besteht, in Auflösung oder in Farben.
Aber das hier immer welche die Unterschiede zwischen Analog und Digital immer noch nicht begreifen und sich den digitalen Sensor perfekt reden. Ist mir schleierhaft.
Wenn man eine digitale Bilddatei ausdruckt, ist das gedruckte Bild dann analog oder digital?
 
Lass gut sein.
ICH sprach sowieso nur von MEINEM SUBJEKTIVEM Empfinden.
Das habe ich auch mehrfach betont und nie versucht als objektiven Vorteil darzustellen

P.S.: Mir ging es nur um die Farben. Auflösung reicht mir bei Kleinbildfilm bis zu einer Ausbelichtung von 1x1,5m.
 
WERBUNG
Zurück
Oben Unten