• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Technischen Grenzen der Darstellung von Farben vs. Dynamik in RAW / auf Monitor

Was hast Du denn mit Deiner Frage gemeint und wie sollen wir sie verstehen?

Es geht um die Interpretationsfrage, die im OP steht.

Mit Dynamik & Dynamikbereich meine ich die "Spreizung", d.h. den Quotienten aus maximal darstellbarer Helligkeit pro Pixel und minimaler Helligkeit.
Bei einem linear codierten RAW begrenzt da die Bitzahl diese Spreizung.

Mit der Limitierung meinte ich eben die Bergrenzung des Abbildbaren durch die Bitzahl.

Just jene Bits bilden aber eben Farbinformationen ab. Und da Farben durch Mischen von 3 Grundfarben in verschiedenen Helligkeitsstufen erzeugt werden sehe ich alleine dadurch schon einen "Zusammenhang" zwischen den Grenzen der Dynamik (durch die Anzahl bits) und der "Farbtiefe".

Wenn:

  • ich ein 4bit RAW habe
  • das RAW linear codierte Daten enthält
Dann:

  • kann ich maximal 16 verschiedene "Farbtöne" einer Farbe (in dem Fall der einen Farbe) abbilden durch 16 verschiedene Farbtonhelligkeiten
  • kann ich maximal eine 16fache Grösse als grundlage zum Ausdrücken der "Helligkeit" (wie auch immer das noch transformiert wird) ablegen.
Für mich ist es weiter Quatsch, zu behaupten, es gebe keinen Zusammenhang zwischen den Begrenzungen.

Die Ausführungen hier haben das ja bestätigt.
 
1) du kannst ja eine bilddatei per photoshop betreffend helligkeit und kontrast beliebig verändern, ohne daß du dabei die art der bitcodierung, also die bitzahl veränderst.

damit ist bewiesen, daß die anzahl der bits weder kontrast/dynamik, noch helligkeit beschränken.

zusätzlich kannst du deinen monitor noch separat, also unabhängig von der bitzahl der darzustellenden fotos, heller/dunkler/kontrastreicher/farbstichiger einstellen.

2) was die bitzahl jedoch bestimmt, ist die feinheit der tonwertabstufung zwischen den beiden extremwerten "ganz hell" und "ganz dunkel" und das in jedem farbkanal, d.h. auch die feinen nuancen der farbdarstellung.

3) zwischen
a) dem kontrast, der helligkeit und der farbe des motives
und
b) dem kontrast, der helligkeit und der farbe des durch die kamera in der bilddatei gespeicherten fotos
und
c) dem kontrast, der helligkeit und der farbe des am monitor gespeicherten fotos

gibt es nur "zufällige", aber keine prinzipiell zwingenden zusammenhänge. das bild am monitor schaut nur deshalb in etwa so aus wie das motiv, weil die kamerahersteller, die programmierer und die monitorhersteller ihren job sinnvoll gemacht haben und grob miteinander gesprochen haben, was jeder so treibt.
(man hat sich also über die art der dateistrukturen und dateicodierung verständigt und die art, wie tonwerte in etwa dargestellt werden sollten - gerätetypabhängige gammakurven, kontrastumfänge, farbtemperaturen etc.)

lg gusti
 
aus der anzahl der stufen kannst du nicht auf den höhenunterschied zwischen beginn und ende einer treppe schließen. und auch nicht auf deren steigung.

a) angenommen der gesamte höhenunterschied betrage 10m.
diesen kann eine treppe überwinden mit z.b. 2 stufen oder 40 stufen oder 5 millionen stufen.

b) jetzt kommt jemand daher und fertigt einen plan der treppe an.
b1) er kann eine möglichst detailgetreuen plan mit jeder einzelheit machen. aber so lange er keinen maßstab im plan angibt, bzw. solange er keine abmessungen hinein schreibt, kann der modellbauer, der auf basis des planes ein kleines abbild der treppe bauen soll, nicht wissen, ob die treppe groß oder klein ist ... ob für riesen mit langen füßen oder für zwerge gebaut ...
b2) er kann eine grobe skizze anfertigen und die stufen z.b. nur andeuten.
dann ist de rmodellbaue rauf noch mehr explizite angaben angewiesen.

c) der modellbauer wird daher, falls er mit dem planzeichner nicht gesprochen hat, einfach annehmen, daß eine stufe ca. 15 cm hoch sein wird, weil sie für normale menschen gebaut sein könnte. und er wird auch annehmen, daß der planzeichner die steigung der treppe in etwa richtig skizziert hat und er wird annehmen, daß auch die stufenzahl im plan in etwa stimmen könnte.

so in etwa geht es dem team aus fotograf (kamerahersteller), bildverarbeiter (programmierer) und bildbetrachter (monitorhersteller), daß sie alle nur darauf bauen können, daß der andere im üblichen maß sinnvoll agiert und denkt und daß daher das foto am monitor im großen und ganzen doch dem motiv entsprechen könnte. aber es gibt keine zwingende, durchgängige gesetzmäßigkeit in der kette motiv-belichtung-datei-bildbearbeitung-bilddarstellung. es gibt nur effizienterweise vernünftige konventionen mit einer gewissen bandbreite, die dann jedoch der photoshopkünstler durch bildverfremdung ad absurdum führt, dami t er das schönere bild erzeugt als sein mitfotograf :-)

lg gusti
 
Zuletzt bearbeitet:
Der Vergleich hinkt, denn die Dynamik ist nicht die Höhe der Treppe (Differenz), sondern der Quotient Q aus maximaler Treppenlänge und minimaler Stufenhöhe. Wenn keine Stufe größer sein darf als die minimale (lineare Zählung), muss ich also bis zu Q Stufen abzählen können.

Oder kürzer:

Dynamik=max/min
max=min*(Wertebereich^gamma) -> Wertebereich=(max/min)^(1/gamma)
--> gamma=1 (lineare Zählung): Wertebereich=max/min=Dynamik
 
Zuletzt bearbeitet:
gibt es nur "zufällige", aber keine prinzipiell zwingenden zusammenhänge. das bild am monitor schaut nur deshalb in etwa so aus wie das motiv, weil die kamerahersteller, die programmierer und die monitorhersteller ihren job sinnvoll gemacht haben und grob miteinander gesprochen haben, was jeder so treibt.
Prinzipiell hast du Recht – es gibt zunächst keinen Zusammenhang zwischen Bittiefe einer Bilddatei und Dynamikbereich. Habe ich auch schon ganz am Anfang in diesem Thread geschrieben – incl. konkreter Beispiele.

Andererseits: sobald die Zuordnung von Werten in der Bilddatei und Lichtintensitäten definiert ist, kann man aus dieser Zuordnung den Dynamikbereich eindeutig bestimmen, und genau das schreibt beholder3 in seinem letzten Post.

Übrigens ist der Weg von der Kamera zum Monitor keineswegs so willkürlich, wie du das darstellst. In dem Fall, wo Bilddaten eindeutige (zumindest relative) Intensitätswerte zugeordnet sind, sieht die Sache ganz anders aus, und das ist zumindest der Fall

1) beim Nikon NEF Raw-Format
2) bei Bilddateien mit angehängtem Farbprofil
3) bei profilierten Monitoren oder Druckern

Das heißt nicht, dass man diese Werte von der Kamera bis zum Ausgabegerät beibehalten muss (oder sollte, aber das ist eine ganz andere Diskussion), aber der Zusammenhang ist in all diesen Fällen klar, und damit auch die Dynamik.

Bei Raw-Dateien ist vielleicht der Zusammenhang von Lichtintensität und Bildinformation am wenigsten klar. Die heutigen Bildsensoren (Fotodioden, egal, ob CCD oder CMOS) messen die Anzahl der eingefangenen Photonen, d.h. letztlich (durch die Farbfilter des Bayer-Sensors und die wellenlängenspezifische Energie) gewichtete Lichtintensitäten. Da die D/A-Wandlung linear erfolgt, sind die digitalen Rohdaten also proportional zu den gemessenen Lichtinsentitäten. Das allein sagt noch nichts über die Speicherung der Rohdaten, aber wenn man mal davon ausgeht, dass aus dem gespeicherten RAW-Bild der kleinste Intensitätswert ≠ 0 und der größte Intensitätswert rekonstruiert werden können, dann ergibt sich der Dynamikumfang aus diesen beiden Werten und damit bei vernünftiger Ansteuerung aus der Bittiefe des D/A-Wandlers. (Dass Raw-Dateien übrigens nicht unbedingt linear codiert sein müssen, zeigt das 12 bit compressed NEF bei Nikon – dort wird mit einer Tonwertkurve und größeren Abständen bei den höheren Werten gearbeitet, aber die Tonwertkurve wird mit in der NEF-Datei abgespeichert, so dass die ursprünglichen Werte rekonstruiert werden können).

L.G.

Burkhard.
 
aus der anzahl der stufen kannst du nicht auf den höhenunterschied zwischen beginn und ende einer treppe schließen. und auch nicht auf deren steigung.

Bei einem Foto schon. Da ist das untere Ende nämlich festgelegt als "schwarz" (nicht theoretisch betrachtet, sondern so, wie ein Kamera-Sensorhersteller es definiert; es spielt auch keine Rolle, ob dies bei einer alten Kamera schon bei Zimmerbeleuchtung so ist).
Mit zwei Bit linear codiert wirst Du nunmal nichts höheres darstellen können, als das vierfache des Ausgangswerts, was dann die Steigung festlegt.
Der absolute Höhenunterschied interessiert bei Dynamik auch nicht, es geht nur um den Quotienten zwischen Start und Ende.

Farbtöne kann ich damit auch maximal vier unterscheiden.

Mit drei Bit kann ich aber maximal Faktor 2 mehr Dynamik abbilden und eben auch auch Farbtonstufen.
 
sind die digitalen Rohdaten also proportional zu den gemessenen Lichtinsentitäten.

Nicht zu den Intensitäten, sondern zu den Lichtenergien = Intensität x Fläche x Zeit. Aber das wirst Du auch so gemeint haben.

dann ergibt sich der Dynamikumfang aus diesen beiden Werten und damit bei vernünftiger Ansteuerung aus der Bittiefe des D/A-Wandlers.

Der maximal darstellbare Dynamikumfang ergibt sich aus der Bittiefe. Bei bspw. hohen ISO ist der Dynamikumfang des Sensors kleiner, der A/D-Wandler arbeitet aber trotzdem mit 12 oder 14 bit und schreibt die in die Raw-Datei. Und auch das wirst Du so gemeint haben.


Gruß, Matthias
 
Nicht zu den Intensitäten, sondern zu den Lichtenergien = Intensität x Fläche x Zeit. Aber das wirst Du auch so gemeint haben.
Naja, ich habe mir halt erlaubt, vereinfachend Fläche und (Belichtungs-)zeit(en) der einzelnen Pixel mal als Konstanten anzusehen (und ISO-Einstellung/Verstärkung auch). :D

Der maximal darstellbare Dynamikumfang ergibt sich aus der Bittiefe. Bei bspw. hohen ISO ist der Dynamikumfang des Sensors kleiner, der A/D-Wandler arbeitet aber trotzdem mit 12 oder 14 bit und schreibt die in die Raw-Datei. Und auch das wirst Du so gemeint haben.
Genau. Danke für die Klarstellung. Die praktische untere Grenze ergibt sich normalerweise durch das Dunkelrauschen.

L.G.

Burkhard.
 
Zuletzt bearbeitet:
Cam RAW 12-14 Bit
normale VGA DVI 8 Bit
mieses Monitor Panel 6 Bit

klaro gibt es schon bessere Monitore und die noch besseren haben ein 10 Bit look up Table um nach dem Kalibrieren nicht in die Begrenzung 8 Bit zu fahren

ich meine mal gelesen zu haben mit extra Grafiktreiber ist DVI mit 10 Bit auf dem Vormarsch, aber dann sollte der Monitor ein look up Table haben >10 Bit, hab ich aber noch nicht gefunden.

PS über die Panel Auflösung schweigen sich die meisten Hersteller aus
 
Mit Dynamik & Dynamikbereich meine ich die "Spreizung", d.h. den Quotienten aus maximal darstellbarer Helligkeit pro Pixel und minimaler Helligkeit.
Also hier geht's um Helligkeitswerte, sagen wir Lichtwerte, da diese in der Fotografie definiert sind?

Bei einem linear codierten RAW begrenzt da die Bitzahl diese Spreizung.
Da biste jetzt schon beim Auflösungsvermögen des A/D-Wandlers. Das ist aber was ganz anderes.

Der Sensor/Film hat einen Dynamikbereich. Der A/D-Wandler hat ein Auflösungsvermögen. Das Eine hat mit dem Anderen nix zu tun.

.. kann ich maximal 16 verschiedene "Farbtöne" einer Farbe .. abbilden durch 16 verschiedene Farbtonhelligkeitent.
Ja, und? Daß ein 12-Bit Wandler mehr Farbtöne unterscheidet ist sicher unstrittig.
 
Also hier geht's um Helligkeitswerte, sagen wir Lichtwerte, da diese in der Fotografie definiert sind?

Ein Quotient aus selber schon logarithmischen Lichtwerten wäre aber ziemlich eigenartig.

Der Sensor/Film hat einen Dynamikbereich. Der A/D-Wandler hat ein Auflösungsvermögen. Das Eine hat mit dem Anderen nix zu tun.

Und die Ausgangsdaten des Sensors werden mit 12 oder 14bit linear digitalisiert und dann in lineare 12- oder 14bit-Raw-Dateien geschrieben. Und an diesen Daten, nicht am nackten Sensor, wird die Dynamik bestimmt. Und die ist dann nicht größer als 1EV/bit, nie, das geht nicht.



Gruß, Matthias
 
Der Sensor/Film hat einen Dynamikbereich. Der A/D-Wandler hat ein Auflösungsvermögen. Das Eine hat mit dem Anderen nix zu tun.
Der A/D-Wandler begrenzt aber den nutzbaren Dynamikbereich des Sensors. Selbst wenn der Sensor feinere Schwarzabstufungen unterscheiden kann als der A/D-Wandler auflöst, dann ist das in der Raw-Datei nicht zu sehen. Genauso: wenn der Sensor Lichtmengen wandeln kann, bei denen der A/D-Wandler an die obere Grenze stößt, dann kann ich das im Raw ebenfalls nicht sehen. Von der dazwischen liegenden Verstärkerelektronik reden wir jetzt mal gar nicht. Wenn die heutigen Bildsensoren 12 bit A/D-Wandler hätten, wäre das der begrenzende Faktor für den von den RAWs darstellbaren Dynamikbereich (bei niedrigen ISO-Werten).

L.G.

Burkhard.
 
Selbst wenn der Sensor feinere Schwarzabstufungen unterscheiden kann als der A/D-Wandler auflöst, dann ist das in der Raw-Datei nicht zu sehen.
Das ist richtig, stört aber nicht die Abbildbarkeit der gesamten Dynamik.
Genauso: wenn der Sensor Lichtmengen wandeln kann, bei denen der A/D-Wandler an die obere Grenze stößt, dann kann ich das im Raw ebenfalls nicht sehen. Von der dazwischen liegenden Verstärkerelektronik reden wir jetzt mal gar nicht.
Soweit mir bekannt ist, kann ein AD Wandler praktisch jedes analoge Signal x in jedem Wertebereich von x1 bis x2 in eine Sammlung ganzer Zahlen y von 0 bis (2^n)-1 umwandeln, dass gilt:

y = int (a*x + b), wobei int immer auf die nächst niedrigere Integer abrundet, z.B.
int(2.8) = 2

Hierbei sind a und b konstant aber frei wählbar. Dann wähle ich a und b so, dass für reelle Zahlen gilt:
a*x1 + b = 1 (-> y=0 für alle x < x1 = Ausleserauschen)
a*x2 + b = 2^n - 1 (-> y = 2^n -1 = erreichbarer Pixelüberlauf bei Überbelichtung)

Aber wir sind wieder beim Nachbarthread selig.
 
Also hier geht's um Helligkeitswerte, sagen wir Lichtwerte, da diese in der Fotografie definiert sind?

Nein. Um Helligkeitswerte. Linear steigende Zahlen. Dynamikumfang = Quotient von Max / Min.

Da biste jetzt schon beim Auflösungsvermögen des A/D-Wandlers. Das ist aber was ganz anderes.

Überhaupt nicht. Hat auch mit meiner Frage nichts zu tun. Vollkommen belanglos, welche Technologie, wie da die Helligkeitswerte eines Kanals reinschreibt - solange es eben die Helligkeit ist für einen der drei Farbkanäle. Ändert weder Frage, noch Antwort.

Der Sensor/Film hat einen Dynamikbereich. Der A/D-Wandler hat ein Auflösungsvermögen. Das Eine hat mit dem Anderen nix zu tun.
Wie schon geschrieben ist es egal, wie die Daten da rein kommen. Im RAW haben die Helligkeitswerte in den verfügbaren Bits einen begrenzten Dynamikumfang. Und genau dieselben Bits erzeugen Farbtöne. Begrenzt viele.

Ihr könnt hier gerne über alles diskutieren, was Ihr wollt, aber mit der Frage hat das nichts mehr zu tun.

Vielleicht sieht man ja irgendwann der Wald vor lauter Bäumen nicht mehr.
 
Der A/D-Wandler begrenzt aber den nutzbaren Dynamikbereich des Sensors. Selbst wenn der Sensor feinere Schwarzabstufungen unterscheiden kann als der A/D-Wandler auflöst, dann ist das in der Raw-Datei nicht zu sehen.
Das ist ja nicht strittig. Und ich würde auch sicher davon ausgehen, daß das analoge Signal am Sensor mehr hergibt als die paar Digitalstufen des A/D-Konverters.

Genauso: wenn der Sensor Lichtmengen wandeln kann, bei denen der A/D-Wandler an die obere Grenze stößt, dann kann ich das im Raw ebenfalls nicht sehen.
Das mußt Du mir erklären. Ich versteh schon, daß der Sensor nicht jeden Helligkeitswert in eine Ladung oder eine Spannung umsetzen kann. Aber wenn er mal ein elektrisches Signal erzeugt hat, daß läßt sich das auch quantifizieren. Da bin ich sicher...

Im Übrigen scheinen wir uns soweit einig zu werden, daß bei der Frage nach Dynamik derjenige am Sensor zu verstehen ist.

Im Übrigen fällt mir auf, daß die ursprüngliche Fragestellung
Es geht um die Frage, ob bezüglich der Begrenzung auf n bit bei einer RAW Datei oder einem Monitor zur Darstellung eines Bildes a) Farbtöne und/oder b) die Dynamik begrenzt wird.
etwas merkwürdig formuliert ist. Für eine RAW-Datei läßt sich die Frage beantworten; was ein Monitor mit dem Tonwertumfang eines RAWs zu schaffen hat ist mir freilich unklar.


Manfred
 
Das ist ja nicht strittig. Und ich würde auch davon ausgehen, daß das analoge Signal am Sensor mehr hergibt als die paar Digitalstufen des A/D-Konverters.
Zumindest nicht sooo viel mehr – lt. Sensorgen liegt die Sättigungsgrenze der meisten Sensoren bei 30000 bis 100000 Elektronen pro Pixel. Und mehr als Pixel zählen geht nicht. (Wobei SensorGen aus den Daten von DxO rückrechnet, und die messen mit dem Raw-File und auch nicht direkt am Sensor).

Genauso: wenn der Sensor Lichtmengen wandeln kann, bei denen der A/D-Wandler an die obere Grenze stößt, dann kann ich das im Raw ebenfalls nicht sehen.
Das mußt Du mir erklären. Ich versteh schon, daß der Sensor nicht jeden Helligkeitswert in eine Ladung oder eine Spannung umsetzen kann. Aber wenn er mal ein elektrisches Signal erzeugt hat, daß läßt sich das auch quantifizieren. Da bin ich sicher...
Beispiel: ein Pixel kann maximal 50000 Elektronen speichern. Dann wird man bei der niedrigsten ISO-Stufe (z. B. 100) den Verstärkungsfaktor so wählen, dass der A/D-Wandler bei 50000 Elektronen den maximalen Wert, z. B. 16383 (=2^14-1) liefert. Was passiert bei ISO 200? Die Verstärkung wird verdoppelt, und bereits bei 25000 Elektronen wird der Maximalwert 16383 erreicht. Wenn das Pixel also zwischen 25000 Elektronen und 50000 Elektronen enthält, liefert der Sensor noch vernünftige Daten ab, aber der A/D-Wandler kann sie nicht umsetzen. Natürlich könnte man das durch einen feiner auflösenden Wandler beheben.

Bei ISO 400 gibt es in dem Beispiel übrigens schon mehr Stufen des A/D-Wandlers als Elektronen, die der A/D-Wandler zählen könnte.

L.G.

Burkhard.
 
Zuletzt bearbeitet:
Dann:

  • kann ich maximal 16 verschiedene "Farbtöne" einer Farbe (in dem Fall der einen Farbe) abbilden durch 16 verschiedene Farbtonhelligkeiten
  • kann ich maximal eine 16fache Grösse als grundlage zum Ausdrücken der "Helligkeit" (wie auch immer das noch transformiert wird) ablegen.
Für mich ist es weiter Quatsch, zu behaupten, es gebe keinen Zusammenhang zwischen den Begrenzungen.

Die Ausführungen hier haben das ja bestätigt.
Also nochmal langsam, der 1. Punkt ist unbestritten richtig. Der 2. Punkt ist prinzipiell falsch. Der Faktor 16 kann beliebig gedehnt werden.

Gleichwohl ist der Schlusssatz kein Quatsch. Wenn man ihn ausdehnt auf das wirkliche Leben und dabei physikalisch-technische Prinzipien auch benutzt, ist es sinnvoll, die Zahl der Bits im Raw irgendwie an der Abbildungsleistung der Dynamik des Sensors zu orientieren.

Am Bild eines 20LW Motivs geht jedoch nichts von der Dynamik des Motivs verloren, wenn man es mit 2Bit RAW darstellt. Es gehen Farbtöne zwischen drin verloren. Dynamik ist aber nur das Verhältnis aus den Extremwerten. Diese bleiben erhalten.
 
Am Bild eines 20LW Motivs geht jedoch nichts von der Dynamik des Motivs verloren, wenn man es mit 2Bit RAW darstellt.

Ah. Eventuell hast Du meine Denkblockade im Nebensatz gelöst. :)
Ich denke, ich weiss nun, wo mein Verständishaken lag. Es musste nur griffiger werden.
In meinem Kopf steckte bzgl. "lineare Codierung" die Vorstellung, dass da sowas wie eine 1 drin stehen muss, auf die sowas wie eine 2 folgt, dann eine 3 und schließlich eine 4 (bei 2 Bit). Gerne auch 0-3. Ich war also auf eine Steigung von 1 fixiert.

Natürlich kann man auch "Helligkeiten" 1,1001,2001,3001 meinen. Immer noch 4 Bit, aber plötzlich nicht 1:4 sondern 1:4000. Natürlich ist auch eine Steigung von 1000 immer noch linear.

Rückwirkend lese ich das zwar auch in den Posts, aber erst mit dem Beispiel kann ich es mir klarmachen. Angestossen dadurch, dass Du sagtest, dass man ja 20LW Abstand in 2 Bit codieren kann, wo ich erst dachte, "das geht nicht". Mir fehlte dieses konkrete Beispiel zum durchdenken, um den eigenen Fehler konkret zu lokalsieren.
 
Mir fehlte dieses konkrete Beispiel zum durchdenken, um den eigenen Fehler konkret zu lokalsieren.

Und Du findest, die Unterscheidung zwischen "1" als kleinstem Wert und "1001" als dem nächstfolgenden hilft Dir? Schon erst recht, wenn Dein echter Messwert vielleicht um +/-50 fehlerbehaftet abweicht?


Ratlos, Matthias
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten