• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Die Böse, böse Pixelunschärfe: Fundamentaldebatte

Gast_308519

Guest
Hallo,

nachdem masi zweimal an einem bestimmten Thema rumgekrittelt hat, würde ich das gerne mal in eine (hoffentlich friedfertige ;)) Fundamentaldebatte einbringen, um zu verstehen, was die Experten so meinen.
Dazu kann ich vielleicht direkt ein paar simple Nebenfragen klären. :)

Zutaten:

  • Normalerweise wird der Zulässige Zerstreuungskreis - nennen wir ihn kurz Zzul - ganz ohne Pixelkram über Winklelauflösung des Auges definiert. Sehr analog auf Basis der Millionen Jahre alten Karbon-Einheit auf zwei Beinen. Z.B. Sensordiagonale/1500.
  • Dann gibt's jetzt aber die Digi-Knipsen, die nicht analog abbilden, sondern in Pixel-Schritten
  • Wenn ich total nah ran gehe an ein Bild bzw. es riesig ausdrucke, werde ich zwingend irgendwann Pixel erkennen.
  • Eine Genauigkeit von kleiner einem Pixel ist somit nicht darstellbar. Wenn die Pixel aus sind, gibts auch für Adleraugenoptiken nix mehr zu gewinnen. KLeiner als 1 Pixel kann das Ding nicht werden, ohne ganz zu verschwinden.
  • Beispielphantasiesensor, um alles einfach zu halten:
    A=10 x B=10 mm gross und hat X=5 x Y=5 Pixel.
Fragen von mir:

  1. Gehe ich recht in der Annahme, dass zwischen den echten Pixeln Platz für Elektronik ist?
  2. Woher kann ich dann wissen, wie gross ein Pixel wirklich ist, denn er wird ja dann kleiner als GP = 2 x 2 mm sein, oder? Also z.B. 1,8 x 1,8 mm? Längen Teilen durch Pixelzahlen ist es ja wohl nicht.
  3. Was nennt man dann eigentlich "Pixelpitch" PP? Wäre das 2x2 oder 1,8x1,8mm? Oder das doppelte?
  4. Hauptfrage:
    Müsste nicht die theoretische Obergrenze für durch Pixelpeeper und Plakatwanddrucker einzufordernde Zzul = Pixelgrösse sein? Also mehr als genau das bringt niemals nix?
  5. Oder wäre das anders zu sehen und müsste aus irgendwelchen Gründen Zzul = 2*Pixelgrösse sein? Oder der Pixelabstand zwischen den Pixeln von 0,2mm? Oder die vollen 2x2mm?
  6. Oder wäre das alles physikalischer Quark, weil niemals zu erreichen oder weil irgendwelche Komponenten oder physikalischen Gesetze das unmöglich machen?
Hinweis:
Bitte keine Diskussion um den Sinn der Fragen oder die Wahrscheinlichkeit des praktischen Nutzens. Mir ist schon klar, dass solche Schärfeanforderungen in der Realität nicht üblich sind.

So. Ich weiss, dass ich hier ab 4. nach fundamentalistischem Zeug frage mit (für Unwissenden) esoterischen Komponenten. Trotzdem wäre es nett, wenn Ihr Eure Debatte einigermaßen allgemeinverständlich halten könntet und auch die kleineren Eingangsfragen nicht überseht. :)

Ich bin übrigens doof genug, um auch "Trivialitäten" und "Selbstverständlichkeiten" nicht zu kennen, also bitte ich letztlich darum, das Zeug einem 10jährigen aufzubereiten (manche Leute sprechen da lieber von Landvogten und Vorständen ;)).
 
1) Ja, wird teilweise durch Mikrolinsen kompensiert.
2) Aus den technischen Beschreibungen. Steht bei Canon in den Wightpapern.
3) Nie gehört
4) Ja, der kleinste Sinnvolle Zerstreuungskreis ist die Pixelgröße. Ob jetzt 2 mm oder 1,8mm ist halte ich eher für philosophisch.
5) Würde sagen nein
6) Naja, bei der Betrachtung geht man davon aus das der Mittelpunkt des Zerstreuungskreis deckungsgleich mit dem Pixelmittelpunkt ist.
 
nachdem masi zweimal an einem bestimmten Thema rumgekrittelt hat,

Ich "krittel" nicht, mein Gutster, und mein Name ist Matthias, sondern äußere meine Meinung, auch wenn sie zuweilen auf Widerstand stößt. Und da ich mir nebenher selber auch ein paar Gedanken gemacht habe und die in meinem "Heimatforum" gerade zu einem neuen Thema zusammengefasst habe, stelle ich den kompletten Beitrag hier 1:1-kopiert auch noch mal rein. Damit Ihr ihn zitieren könnt, mache ich ihn nur durch Kursivschrift kenntlich. Und ich bin mal gespannt, wie daramatisch unterschiedlich die Diskussionen verlaufen werden. :cool:

Moin!

Wie Ihr wisst, beschäftige ich mich schon etwas länger mit Schärfentiefe, Beugung und solchen Sachen. Zwar auf einem deutlich tieferen Niveau als Falk das tut, aber das ist Absicht. Ich benutze gern, soweit es geht, einfache kleine und nachvollziehbare Modelle. Und in dieses Modell habe ich nun kürzlich auch die "Pixelunschärfe" eingebaut. Was soll das?
Ich lese immer und überall, dass die Pixelgröße so eine Art magische Grenze für Beugung, Abbildungsfehler, Verwacklung usw. usf. sei. So als wären all diese Unschärfeeinflüsse irrelevant, solange sie nicht die Abmessung eines Pixels erreichen. In diversen Schärfentieferechnern kann man die Pixelgröße als Grenzwert einstellen, und in unzähligen "trivialwissenschaftlichen" Beiträgen im Internet wird es so dargestellt. In diesem Zusammenhang wird auch gern von "pixelscharf" gesprochen. Ich halte das für einen falschen Ansatz.
Des weiteren wird spätestens seit Erscheinen der D800 vorgerechnet, dass die wegen ihrer 3x so vielen Pixel wie die D700 ja auch 3x so hohe Auflösung (in der Fläche) bzw. √3=1,7x so hohe Auflösung pro Länge bzw. Bildhöhe habe. Auch das stimmt meines Erachtens so nicht.
Hie und da findet man dann immerhin einen Hinweis auf die Beugungsunschärfe, manchmal wird dann ausgerechnet, ab welcher Blende ein Beugungsscheibchen die Abmessung eines Pixels hat, und es wird dann so dargestellt, als sei die Auflösung erst oberhalb dieser Blende beugungsbegrenzt. Und auch das ist meiner Meinung nach falsch.
Ich habe nun mal eine ganz einfache Rechenübung gemacht. Ich habe die Fläche eines Pixels ausgerechnet, einfach durch Division der Sensorfläche durch die Pixelzahl, ohne irgendwelche Korrekturen für AA-Filter, Bayer-Matrix usw., ganz einfach. Und ich habe die Fläche eines Beugungsscheibchens ausgerechnet, die natürlich blendenabhängig ist. Als Durchmesser des Beugungsscheibchens findet man in der Literatur meistens 1,34μm*Blendenzahl. Andere rechnen mit 1μm*Blendenzahl, ich sogar nur mit der Hälfte des Literaturwerts, also 0,67μm*Blendenzahl. Alle anderen Unschärfefaktoren (Fehlfokus, Verwacklung, Abbildungsfehler usw.) vernachlässige ich. Und dann habe ich die Größe des resultierenden (effektiven und gemittelten) Unschärfeflecks ausgerechnet, indem ich diese beiden Flächen schlicht und einfach addiert habe. Näherungsweise kann man das machen, und es geht ja hier auch nur um ein einfaches prinzipielles Modell. Und schließlich habe ich ausgerechnet, wieviele dieser Unschärfeflecken auf die Sensorfläche passen und bekomme so eine blendenabhängige effektive Pixelzahl.
Mit diesem einfachen kleinen Modell wie eben beschrieben, und mit einem ansonsten perfekten Foto (ideales Objektiv, perfekt fokussiert, nicht verwackelt, nicht im Nahbereich (Auszugsverlängerung vergrößert die Beugungsscheibchen)) sieht das dann so aus:
picture.php

Was ist hier zu sehen? Die x-Achse ist die Blendenzahl, die y-Achse die resultierende effektive Auflösung, ausgedrückt im Megapixel. In rot die 36MP einer D800, in gelb die 24MP einer D3x, in blau die 12MP einer D700. Die dicken Linien entsprechen jeweils meinem Modell, die dünnen der "klassichen", aber in meinen Augen falschen, Darstellung, die ich oben beschrieben habe (volle Auflösung bis zu der Blende, wo Beugung=Pixelgröße ist, erst darüber beugungsbegrenzt).
Und ich bin geplättet! Schon bei Blende f/4 käme die D800 nur noch auf effektiv 28MP (77% ihrer Nominalauflösung), die D3x noch auf 20MP (83%), die D700 auf 11MP (91%). Bei f/8 schmilzt das zusammen zu 16MP und 45% bei der D800, 13MP und 56% bei D3x und 9MP/71% bei D700. Und bei Blende f/22 bleiben mal gerade 3,6MP, 3,4MP und 3,0MP bzw.10%, 14% und 25% der Nominalauflösung.
Und all das ist "konservativ" gerechnet (Beugung kleiner als üblich) und vernachlässigt alle anderen Unschärfeeinflüsse. Mit ein bisschen Verwacklung, Fehlfokus oder einem realen Objektiv mit Abbildungsfehlern wären die Auflösungen noch kleiner. Und selbst meine "burschikose" Abschätzung der "Pixelunschärfe" ist konservativ. Würde man AA-Filter und Bayer-Demosaicing berücksichtigen, wäre die effektive Pixelgröße etwas größer. Irgendwo habe ich mal +30% oder so gelesen. Falk, wo steckt mein Fehler?
Ach, noch was: Diese Rechnerei habe ich schon in mein bekanntes xls-Datenblatt integriert, und das berücksichtigt immerhin die Auszugsverlängerung, alle anderen Effekte aber auch nicht. Ich werde Euch in Zukunft also auch damit malträtieren. :p



Gruß, Matthias

Edit: Und eben fällt mir auf, dass ich bei der Beugung ein π/4 unterschlagen habe. Tatsächlich habe ich also nicht mit 0,67μm*Blendenzahl gerechnet, sondern mit 0,76μm*Blendenzahl. Sei's drum.
 
Zuletzt bearbeitet:
Ganz aus dem Bauch heraus würde ich sagen das die Beugung ja nur die wenigen Strahlen betrifft die am Blendenrand "berühren". Das sind bei einer weit offenen Blende weniger (in %) als bei einer geschlossenen Blende. Das heißt das die Streukreise blasser sind als bei einer geschlosseneren Blende.

Wie gesagt alles nur mein Gefühl und es kann auch anders sein.
 
Ich würde da mal fragen, warum Du meinst, das alles einfach addieren zu können und keine Sprünge vorsiehst, obwohl es eben doch gerade hier um Auswirkungen auf diskrete Flächenelemente geht.

Zur verdeutlichung meiner Frage habe ich ein Bildchen angehängt. Orange ist das Beugungsscheibchen.
Das stellt ja m.W. eben matschig eine ursprünglich kleinere punktförmige Lichtinformation dar.

Ich versinnbildliche mir das wie in langer dünner Metallstab, der ruhig in einer Vase steckt. Die Spitze wackelt kaum und beschreibt statistisch verteilt nur eine sehr kleine Fläche.

Idee: Wenn das nun durch Beugung so wild herumgetreut wird, dass die Lichtinformation mit mehr als 50% zusätzliche Pixel drumherum auch "aktiviert", dann sind (mittleres Bild) plötzlich 5 Pixel oder (unteres Bild) 9 Pixel "betroffen", weil der Metallstab weiter herumeiert bzw. das Licht weiter herumstreut und matschiges erzeugt.

Daraus wiederum würde ich zwei Dinge ableiten: 1. das kann nicht fliessend sein (es ruckt ja von 1 auf 5 auf 9 Pixel) und 2. läuft das auch nicht ganz "passend" ab relativ zueinander. Damit meine ich, dass das Beugungsscheibchen im obersten Bild ja eventuell zu dem im untersten zu einem viel grösseren Verhältnis flächenmässig steht (sagen wir mal als dummy 1:15) als die Pixel, die nur 1:9 sind.

Ist nur ein Gedankenspiel, aber was ist daran falsch?
 
Zuletzt bearbeitet:
Ich würde da mal fragen, warum Du meinst, das alles einfach addieren zu können und keine Sprünge vorsiehst?

Eigentlich ganz einfach: Ich denke nicht in Pixeln, solange mich die Physik nicht mit der Pistole auf der Brust dazu zwingt. Deine kleinen Beispiele passieren dort, wo "Pixelunschärfe" und Beugung gleiche Größenordnung haben, also im rechten absteigenden Ast der Kurven. Meinetwegen mal da Stufen rein, das ist weitgehend irrelevant. Viel spannender finde ich den Bereich links davon, und da darfst Du mitteln und es statistisch betrachten. Frag Stempel, der "kann nichts anderes".



Gruß, Matthias
 
passieren dort, wo "Pixelunschärfe" und Beugung gleiche Größenordnung haben, also im rechten absteigenden Ast der Kurven.

Deine Kurven steigen doch von vorneherein (zumindest sehr früh) ab.
Wenn ich mir Pixelgrösse und Beugungsscheibchen bei einem 16MPx APSC Sensor ansehe, dann sieht es so aus, als ob das Beugungsscheibchen einen Pixel ab ca. F4 abdeckt und bei F8 schon doppelten Durchmesser hat.
Damit würde ich sagen, würden diese stufigen Effekte ja auch durchaus mitten im "üblichen" fotografischen Bereich ablaufen.
 
Damit würde ich sagen, würden diese stufigen Effekte ja auch durchaus mitten im "üblichen" fotografischen Bereich ablaufen.

..und jetzt mittel das über 16 Millionen Pixel! Wieviele werden mittig getroffen, wieviele am Rand? Und das dann noch von einem Beugungsscheibchen mit "weichem" Rand?


Gruß, Matthias
 
Massi´s Ansatz ist durchaus richtig. Es gibt da kein "Eck", die Übergänge sind fliessend.

Was aber nicht berücksichtigt ist, ist die Intensität der Lichtverteilung in der Beugungsscheibe. Da zwei Lichtpunkte dann unterscheidbar sind, wenn deren Maxima um den Radius des Beugungsscheibchens auseinander liegen, müsste man für realistischere Betrachtungen also vermutlich den halben Radius ansetzen.

Andererseits haben wir eine statistische Trefferwahrscheinlichkeit der maximalen intesität eines Lichtpunktes auf einem Pixel. Die Extremfälle sind da, wo ein Lichtpunkt mittig auf ein Pixel fällt einerseits, und da, wo ein Lichtunkt genau in die Lücke von vier Pixeln fällt andererseits.

Statistiker könnten sich da mal über die Verteilung dieser Überdeckungen Gedanken machen, die durchschnittlich von einem Lichtpunkt mit Beugungsscheibe getroffene Pixelzahl wird aber in jedem Fall von der Pixelgrösse abhängen, und zwar wird diese Zahl um so grösser sein, je mehr Pixel pro Flächeneinheit vorhanden sind.

Das spiegelt sich in den Überlegungen von Massi genau wieder.

Bastler
 
Was aber nicht berücksichtigt ist, ist die Intensität der Lichtverteilung in der Beugungsscheibe. Da zwei Lichtpunkte dann unterscheidbar sind, wenn deren Maxima um den Radius des Beugungsscheibchens auseinander liegen, müsste man für realistischere Betrachtungen also vermutlich den halben Radius ansetzen.

Den halben Radius? Ich habe einen effektiven Durchmesser annehmen, der nur halb so groß ist wie das zentrale Maximum einer Airy-Scheibe, also 0,67μm*Blendenzahl statt 1,34μm*Blendenzahl. Da ich aber π/4 vergessen habe, sind es 0,76μm*Blendenzahl geworden.


Gruß, Matthias
 
Den halben Radius? Ich habe einen effektiven Durchmesser annehmen, der nur halb so groß ist wie das zentrale Maximum einer Airy-Scheibe, also 0,67μm*Blendenzahl statt 1,34μm*Blendenzahl. Da ich aber π/4 vergessen habe, sind es 0,76μm*Blendenzahl geworden.


Gruß, Matthias

Entschuldige, beim durchlesen habe ich das bemerkt, aber wohl nicht ganz verarbeitet. War ja auch noch ziemlich früh heute morgen.

Bastler
 
ad

Eine Genauigkeit von kleiner einem Pixel ist somit nicht darstellbar. Wenn die Pixel aus sind, gibts auch für Adleraugenoptiken nix mehr zu gewinnen. KLeiner als 1 Pixel kann das Ding nicht werden, ohne ganz zu verschwinden.


Doch, das geht, wenn der Sensor der Kamera bewegt wird und zwar um je-
weils z.B. Pixelbreite in x/y-Richtung. Das macht nun z.B. die H3DII-39MS,
H3DII-50MS,die H4D 200 MS, die verschieben den Sensor um Submicron um
halbe bzw. ganze Pixel.

Die Multishottechnik (vier Aufnahmen) wird zu einem Foto verrechnet.

Ganz billig ist das jedoch nicht.

Es gibt aber auch Verfahren um aus konventionellen Aufnahmen eine höhere
Genauigkeit auf Basis von Kantenermittlungen zu errechnen, wird in der Mess-
technik angewandt.


abacus
 
und weiter geht es


...

  • Eine Genauigkeit von kleiner einem Pixel ist somit nicht darstellbar. Wenn die Pixel aus sind, gibts auch für Adleraugenoptiken nix mehr zu gewinnen. KLeiner als 1 Pixel kann das Ding nicht werden, ohne ganz zu verschwinden.

Fragen von mir:

  1. ...
  2. Woher kann ich dann wissen, wie gross ein Pixel wirklich ist, denn er wird ja dann kleiner als GP = 2 x 2 mm sein, oder? Also z.B. 1,8 x 1,8 mm? Längen Teilen durch Pixelzahlen ist es ja wohl nicht.
  3. Was nennt man dann eigentlich "Pixelpitch" PP? Wäre das 2x2 oder 1,8x1,8mm? Oder das doppelte?
  4. Hauptfrage:
    Müsste nicht die theoretische Obergrenze für durch Pixelpeeper und Plakatwanddrucker einzufordernde Zzul = Pixelgrösse sein? Also mehr als genau das bringt niemals nix?
  5. Oder wäre das anders zu sehen und müsste aus irgendwelchen Gründen Zzul = 2*Pixelgrösse sein? Oder der Pixelabstand zwischen den Pixeln von 0,2mm? Oder die vollen 2x2mm?
  6. Oder wäre das alles physikalischer Quark, weil niemals zu erreichen oder weil irgendwelche Komponenten oder physikalischen Gesetze das unmöglich machen?

...


Ja, es ist bei bestimmten Anwendungen sinnvoll mit Pixelabständen zu rechnen und zwar kann man dann auf Basis von Skalierungen weiter arbeiten um bestimmte Dinge messtechnisch aufzubereiten.


abacus
 
ad Tiefenunschärfe

ich wollte dieses Thema an Hand eines von mir begonnen Threads zum Thema
"41 MP mobile, 36 MP Nikon, 21 MP Canon" aufarbeiten, doch leider wurde das
als Diskussion zum Thema Mobilefotografie abgewürgt, wie auf einem anderen
Gebiet ein anderer Thread, in dem ich mich mit den Möglichkeiten der Auswer-
tung alter Fotos auf Basis von D-SLRs Repros auseinadersetzen wollte, wurde
auch in der Phase des Aufbaus des Themas abgewürgt.

Die Diskussion geht, was kann trotz schlechterer Auflösung der Linsensysteme
dennoch an Informationen gewonnen werden.


Vielleicht geht es jetzt in diesem Thread das Thema systematisch zu betrachten.


abacus
 
Die Diskussion geht, was kann trotz schlechterer Auflösung der Linsensysteme dennoch an Informationen gewonnen werden.

Meine Kurven oben nehmen ja ideale Objektive an. Aber Iht habt doch alle Excel/Works/OpenOffice, und ich habe dazugeschrieben, wie ich es gemacht habe. Da könnt Ihr doch jetzt einfach noch weitere Unschärfeanteile einbauen. Man könnte z.B. die Pixelgröße für AA-Filter und Bayer-Mosaik korrigieren (was die Sensoren dann nie ihre nominelle Auflösung erreichen ließe). Man könnte für die Abbildungsfehler einen weiteren Anteil hinzunehmen, der bei offener Blende größer ist als bei kleiner. Dann würden die Kurven auch nach links abkippen (Blende f/1 in meinem Diagramm ist ja sowieso Quatsch) und würden insgesamt geringere Werte erreichen. Aber all das hat auf hochauflösende Sensoren mehr Einfluss als auf geringauflösende, die verlieren schneller mehr von ihrer maximalen Auflösung. Aber trotzdem liegen sie immer und überall etwas höher, bloß eben beileibe nicht proportional zu ihrer Pixelzahl. Spielt doch einfach mal damit rum!



Gruß, Matthias
 
Wieso ist f/1 quatsch? Es gibt Objektive mit 0,95 (glaube Zeis) und auf jedenfall ein EF 50/1 L.
 
Wieso ist f/1 quatsch? Es gibt Objektive mit 0,95 (glaube Zeis) und auf jedenfall ein EF 50/1 L.

Die hat aber kaum jemand, und die werden in der Wirklichkeit bei Offenblende genügend Abbildungsfehler haben, dass die Kurven dann eben nicht auf die Nominalauflösung zulaufen, schon gerade nicht bei 36MP. Ich habe die f/1 nur mit reingenommen um zu zeigen, dass nach links der Einfluss der Beugung immer kleiner wird, aber eben nur der Beugung.


Gruß, Matthias
 
Wäre es nicht an der Zeit das mal durch einen Test nachzuvollziehen?

Du prognostizierst ja, dass sich an einer D800 die Pixel-Auflösung von F2,8 zu F11 halbiert.

Müsste man das nicht mithilfe eines Testcharts verifizieren können mit einer D800? Ob das nach her 40 oder 60% Verlust sind wäre mir ja mal egal, aber etwas in Richtung Halbierung müsste schon auskommen, wenn Du recht hast.

Und das wäre dann mal ein Fall für den Einsatz von sehr gleichmäßig abbildenden Linsen, wie z.B. das Voigtländer 40mm, das bei F2 ähnliche Auflösungswerte bietet, wie bei F11. Damit wäre die Linse als Fehlerfaktor einigermassen beseitigt.

Leute mit geeignetem Equipment müsste es doch geben, oder?
 
Wäre es nicht an der Zeit das mal durch einen Test nachzuvollziehen?

So einfach ist das nicht. Ich nehme ein ideales Objektiv an, und vermutlich ist meine "Pixelunschärfe"deutlich zu klein. Da ist es mit realen Tests, reaalen Kameras und realen Objektiven nicht so einfach, einen signifikanten Unterschied zwischen meinem Modell und dem "klassischen" rauszumessen.


Gruß, Matthias
 
WERBUNG
Zurück
Oben Unten