• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Probleme beim stacken von UWW-Bildern in DSS

guamokolato

Themenersteller
Hallo,

ich habe folgendes Problem - ich habe mir vor einiger Zeit ein Irix 15mm zugelegt unter anderem mit dem Wunsch weitwinkelige Bilder vom Sternenhimmel zu erzeugen. Ostern hatte ich dann endlich Gelegenheit in einer nicht so lichtverseuchten Gegend mal 2 Serien á 30 Bilder zu schießen.
Als ich die Ausbeute dann allerdings daheim im DeepSkyStacker stacken wollte, trat das Phänomen auf, dass zwar die Sterne im Zentrum gut übereinander liegen, im Randbereich aber auseinanderdriften (sieht aus wie eine Mischung aus Schrotschuss und Warp-Antrieb).
Ich habe schon alle möglichen Stackingvarianten durchprobiert und auch die Anzahl der erkannten Sterne mal hoch gesetzt, mal stark reduziert. Auch zwischen der Verwendung von unbearbeiteten und in Darktable schon etwas aufgehübschten Bildern gibt es keinen signifikanten Unterschied.
Kann da jemand mit entscheidenden Tricks helfen, oder kann man UWW-Bilder einfach mal nicht sinnvoll stacken? Meine Theorie ist ja, dass durch die Verzerrung/Verzerrungskorrektur im Randbereich des UWW im Zusammenspiel mit der Erdrotation die Sterne am Rand zu ungenau abgebildet werden.

P.S. Die Blende war 2 Stufen geschlossen :rolleyes:
 
Mit dem "entscheidenden Trick" dazu kann ich leider nicht dienen, aber mit einer Erklärung dazu:
Von einem Beobachter auf der sich drehenden Erde aus bewegen sich die Sterne scheinbar zwischen den Aufnahmen nicht nur auf konzentrischen exakten Kreisbahnen mit dem Polarstern als Mittelpunkt, sondern auch auf "irregulär" gekrümmten Bahnen je weiter man den Blick bzw. die Kamera vom Polarstern weg richtet. Bei einem UWW mit sehr großem Bildwinkel kommen auch vermehrt solche Bahnen mit ins Bild, wodurch die Sternpositionen beim Stacken nicht mehr exakt zur Deckung gebracht werden können - oder dazu die Einzelbilder sehr stark ver- bzw. entzerrt werden müssten. Die Software dürfte dabei an Grenzen stoßen.

Es handelt sich also um ein rein geometrisches Problem, und würde auch ohne eine eventuelle Verzeichnungskorrektur des verwendeten Objektivs auftreten.
 
Als ich die Ausbeute dann allerdings daheim im DeepSkyStacker stacken wollte, trat das Phänomen auf, dass zwar die Sterne im Zentrum gut übereinander liegen, im Randbereich aber auseinanderdriften (sieht aus wie eine Mischung aus Schrotschuss und Warp-Antrieb).
Ja, das kenn ich.

Mit DSS hab ich da bei meinen - zugegeben wenigen - Versuchen auch keinen Erfolg gehabt.

Ich empfehle dir, es mal mit Sequator zu probieren.
Ist Freeware. Es gibt zwar weniger Stellschrauben an denen man spielen kann und die Terminologie ist ein wenig daneben (Star Images, Noise Images, Vignetting Images statt Light, Darks und Flats etc), dafür scheint das Programm besser mit UWWs klarzukommen - Fotos, die in DSS den von die beschriebenen Effekt hatten, hat mir Sequator ohne zu murren korrekt gestackt.

Und als netter Bonus lässt sich auch direkt noch der Himmelsbereich markieren, so das bei UWW die ja meist vorhandene Landschaft automatisch getrennt von den Sternen gestackt und das Ergebnis direkt zusammengeführt wird - und das recht gut.
(wobei ich trotzdem bisher das gleiche Bild zweimal gestackt habe - einmal mit Vordergrund-Freeze und einmal ohne. In Horizontnähe gingen doch gerne mal ein paar Sterne flöten, die ich mir dann in PS mit dem Nur-Sterne-Stackbild im Aufhellenmodus als zweite Ebene wieder zurückholen konnte)

~ Mariosch
 
Die rektilinieare Projektion von üblichen (Weitwinkel-)Objektiven bildet die Sterne nicht gleichabständig ab, sondern vergrößert die Abstände zunehmend zum Bildrand hin. Fischaugenobjektive mit ihrer üblicherweise sphärischen Projektion bilden gleichabständig ab, die Abstände am Bildrand sind gleich den Abständen in der Bildmitte.
Wenn DeepSkyStacker die Bilder mit rektiliniearer Projektion zum Ausrichten gegeneinander verschieben muss, passen die Sternenabstände nicht mehr zusammen.
Bei Teleobjektiven - enger Blickwinkel - spielt die rektilineare Projektion keine Rolle, da sie kaum von der sphärischen Projektion abweicht. Bei „echten“ DeepSky-Aufnahmen kommen üblicherweise keine Weitwinkelobjektive zum Einsatz, das Problem taucht dann gar nicht auf.
Man kann die Weitwinkelaufnahmen von rektiliniearer Projektion auf shärische Projektion umrechen (Hugin), dann mit DeepSkyStacker ausrichten und zusammenrechnen und danach wieder von sphärischer auf rektiliniare Projektion „zurückrechnen“.

Neben DeepSkyStacker gibt es z.B. auch Fitswork und Sequator. Ob diese Beiden die Projektion umrechnen wäre zu testen.
 
Die rektilinieare Projektion von üblichen (Weitwinkel-)Objektiven bildet die Sterne nicht gleichabständig ab, sondern vergrößert die Abstände zunehmend zum Bildrand hin.

Das war auch meine Vermutung. Ist ja im Prinzip so ähnlich wie bei der Mercator-Projektion der Weltkarte. Da wird Grönland auch nach Norden zu gigantisch groß.:eek:
Da werde ich mal mein Glück mit Fitswork und Sequator probieren, oder notfalls mittels Hugin hin und her zerren. Ich hoffe mal, dass sich der ganze Aufwand lohnt. Ich habe mal ein Einzelbild mit 15s Belichtungszeit in DT entwickelt und fand das Ergebnis an sich auch schon ganz brauchbar.

Da stellt sich bei mir aber gleich noch eine weitere Frage - wie gut funktioniert UWW mit einer Nachführung? Theoretisch gibt´s dann trotzdem Startrails am Rand.
 
Hallo guamokolato,

in Hugin funktioniert es, aber es ist etwas nervig. Mit Fitswork klappt es nicht so richtig. Am idealsten wäre es, wenn du nachführst. Der Gewinn ist höher als beim Stacken und Strichspuren gibt es auch keine, wenn man es richtig macht. Gibt es doch Strichspuren, dann läuft der Motor nicht mit der richtigen Geschwindigkeit oder der Pol wurde nicht richtig getroffen. Bei den kurzen Belichtungszeiten der Landschaftsfotografie muss man aber schon ziemlich weit daneben liegen.


MfG

Rainmaker
 
...
Da stellt sich bei mir aber gleich noch eine weitere Frage - wie gut funktioniert UWW mit einer Nachführung? Theoretisch gibt´s dann trotzdem Startrails am Rand.
Die eingenordetet Nachführung sorgt dafür, dass immer der gleiche Himmelsausschnitt vom Objektiv gesehen wird, jeder Stern behält seine Position im Bild; theoretisch gibt es dann keine Startrails - auch nicht am Rand.


... Gibt es doch Strichspuren, dann läuft der Motor nicht mit der richtigen Geschwindigkeit oder der Pol wurde nicht richtig getroffen. Bei den kurzen Belichtungszeiten der Landschaftsfotografie muss man aber schon ziemlich weit daneben liegen.
...
Was hilft ist die Belichtungszeit auf mehrere Einzelaufnahmen aufzuteilen und diese dann zu stacken. Es ist dann auch kein Problem wenn dann eine Einzelaufnahme der Reihe verunglückt, man kann diese dann beim Stacken ja auslassen.
 
Die eingenordetet Nachführung sorgt dafür, dass immer der gleiche Himmelsausschnitt vom Objektiv gesehen wird, jeder Stern behält seine Position im Bild; theoretisch gibt es dann keine Startrails - auch nicht am Rand.
(Hervorhebung von mir)

Ist das tatsächlich so? Betrachten wir einmal beispielsweise die Bilder hier , und stellen uns vor dass anstatt einer Langzeitbelichtung Einzelaufnahmen mit derselben Brennweite, Ausrichtung usw. gemacht würden:

Beim 1. Bild war die Kamera auf den Polarstern ausgerichtet, die Sterne bewegen sich auf konzentrischen Kreisbahnen und verändern ihre Position zueinander nicht. Die Einzelbilder können durch einfaches Rotieren zur Deckung gebracht werden, Stacken funktioniert.

Etwas anders verhält es sich beim 4. Bild: dieses entstand durch ein UWW plus Kamera nicht auf den Polarstern ausgerichtet. Damit kommt der in #2 geschilderte Effekt zum Tragen und immer mehr "irreguläre" (d.h. nicht in konzentrischen Kreisen verlaufende) Bahnen ins Bild.
Die Sterne verändern am Sensor ihre Position relativ zueinander, und ein am Beginn dieser Langzeitbelichtung gemachtes Einzelbild lässt sich dadurch mit einem am Ende gemachten nicht mehr einfach zur Deckung bringen. Würde eine Nachführung daran etwas ändern?
Die Einzelbilder müssten partiell gedehnt/gestaucht werden, was ich vermute auch das Problem beim TO war.
 
Hallo,

@ m@sche,
natürlich kann man bei bei einer ungenauen Poljustage die Belichtungszeiten in mehr Subs aufspalten, aber wer würde das machen wollen? Sinn und Zweck einer Nachführung ist es ja mehr Signal, also ein besseres SNR zu erhalten. Mehr Subs entsprechen einem schlechteren SNR, also einem schlechteren Beobachtungsort. Warum fährt man dann eigentlich an einen dunkleren Ort? Bei Fehlern in der Poljustage sollte man dringend erst mal an der Justage drehen, ehe man die tiefe der Aufnahmen einschränkt. Nur mal zur Erinnerung, um das SNR einer einzelnen Aufnahme mit einer Minute Belichtungszeit zu erreichen bräuchte man vier Aufnahmen mit 15 sek. Belichtungszeit. Bei einem größeren Unterschied zwischen den Belichtungszeiten wächst die nötige Anzahl sogar noch deutlich stärker an. Das wäre aber nur der rechnerische Unterschied bei einer idealen Kamera. In der Realität kommen noch der vervielfachte Dunkelstrom und das Ausleserauschen hinzu, was zu noch weiteren notwendigen Bildern führt.
Vernachlässigen kann man das nur, wenn der Beobachtungsort sehr hell ist, also ein mieser Stadthimmel, denn Lichtverschmutzung wirkt ja auch SNR verschlechternd.

@ Ray_of_Light,
mit einer Nachführung ist egal was Du für ein Objektiv vor der Kamera hast. bei korrekter Nachführung wird eigentlich alles passen übereinanderliegend abgebildet. Eigentlich deshalb, weil es ja noch mechanischen Laufwerksfehler und die Refraktion gibt. Bei dem was hier im Forum aber üblicherweise eingestzt wird ist das nicht gar so wichtig. Die Brennweiten und Belichtungszeiten sind halt oft zu kurz um das Problem sichtbar zu machen.


MfG

Rainmaker
 
@ Rainmaker:
Danke für die Beantwortung. Eigentlich logisch, da ja mit einer (exakten) Nachführung die Kamera quasi "starr und unverrückbar im Weltraum aufgehängt" ist, und die Erddrehung keinen Einfluss mehr hat.

Da der TO aber seine Aufnahmen offenbar ohne Nachführung gemacht hat, ist zu vermuten dass wie beschrieben starker Weitwinkel in Verbindung mit an andere Stelle des Himmels als den Polarstern ausgerichtet dafür verantwortlich ist dass die Sterne insbesondere am Bildrand nicht zur Deckung gebracht werden konnten.
 
Hallo m@sche,

njet, mit denen kannst du nicht das SNR verbessern, bei der Verwendung von Darks geht das SNR sogar deutlich nach unten. Gerade hier im Forum werden gern zu wenige Darks verwendet, das das SNR noch weiter verschlechtetert.
Gegen das mit vielen zu kurzen Subs eingefangene zusätzliche Lese- und thermische Rauschen helfen nur noch mehr Lights.


MfG

Rainmaker
 
Hallo in die Runde,

ich wollte mal einen kurzen Zwischenbericht geben - Sequator hat es tatsächlich hinbekommen die Sterne auch am Rand deckungsgleich übereinander zu basteln. Leider ist dieses Programm gegenüber DSS in den Einstellmöglichkeiten wiederum beschränkter, aber dafür gibt´s ein paar andere nette Features. Jetzt heißt´s allerdings wieder rumprobieren, wie die Bilder am besten in DT vorbereitet werden, damit das Ergebnis nach dem Stacken nach was aussieht. Fitswork habe ich noch nicht geschafft auszuprobieren.

Weil gerade die Diskussion aufkommt - ich habe die Erstellung von Darks immer so verstanden, dass ich damit ein "Rauschbild" auf Grundlage des thermischen und elektrischen Rauschens des Sensors ohne Nutzdaten erzeuge, und da dieses Rauschen von der Umgebungstemperatur und der Belastung des Sensors, also der Belichtungszeit, abhängt, mache ich diese Darks gleich im Anschluss an die eigentlichen Aufnahmen mit der selben Belichtungszeit. Mit diesem "Rauschbild" ist es dem Stackprogramm dann möglich, das störende Rauschen aus den Nutzbildern herauszurechnen und somit die SNR zu verbessern.
Jetzt lese ich, dass sich die SNR durch die Verwendung von Darks eher verschlechtert. :confused: (oder hab ich das falsch verstanden??)
(vielleicht zur Erläuterung - als Audioingenieur habe ich da immer die Audiobearbeitung im Hinterkopf, wo die Verwendung eines Rauschens zur Verbesserung der SNR mittels Gegenrechnen eine gute Möglichkeit darstellt)
 
Hallo guamokolato,

es ist schon richtig, dass die Dunkelstromkorrektur das SNR verschlechtert. Es wird halt ein fehlerbehaftetes Signal von einem anderen fehlerbeftetem Signal abgezogen. Der einfachste Weg das Problem zu verringern ist das SNR des Korrektursignales möglichst hoch zu halten. In der Realität sollten mindestens genauso viele Darks wie Lights aufgenommen werden, falls irgendmöglich auch mehr. Im Idealfall wären es sogar unendlich viele, aber wer hat schon so viel Zeit. ;)
Bei halbwegs modernen Kameras kann man sogar oft auf die Darks ganz verzichten und nur Hotpixelkosmetik betreiben. Bei "richtigen" Astroaufnahmen wird dazu noch gedithert, also das Bildfeld versetzt, und mittels geeigneter Verrechnungsmethoden der Teil des Signals ausgeschlossen der weit vom Mittelwert entfernt liegt (Sigma-Clip oder schlimmstenfalls Median).

Falls das Programm aber keine Hotpixelkosmetik anbietet bleibt natürlich nur das Darkframe, genauso ist es, wenn die Kamera Fehler hat, die zu einem ungleichförmigen Hintergrund führen, z.B. "Verstärkerglühen".


MfG

Rainmaker
 
... ich wollte mal einen kurzen Zwischenbericht geben - Sequator hat es tatsächlich hinbekommen die Sterne auch am Rand deckungsgleich übereinander zu basteln.
...
(y)

...
Weil gerade die Diskussion aufkommt - ich habe die Erstellung von Darks immer so verstanden, dass ich damit ein "Rauschbild" auf Grundlage des thermischen und elektrischen Rauschens des Sensors ohne Nutzdaten erzeuge, und da dieses Rauschen von der Umgebungstemperatur und der Belastung des Sensors, also der Belichtungszeit, abhängt, mache ich diese Darks gleich im Anschluss an die eigentlichen Aufnahmen mit der selben Belichtungszeit. Mit diesem "Rauschbild" ist es dem Stackprogramm dann möglich, das störende Rauschen aus den Nutzbildern herauszurechnen und somit die SNR zu verbessern.
...
Ja, das Dunkelstromrauschen wird mittels Masterdarkframe von den Lightframes abgezogen - das SNR sollte sich dadurch verbessern.

Das Ausleserauschen wird dann mittels Biasframes (ein Masterbiasframe) auch von den Lightframes abgezogen - das SNR sollte sich dadurch auch verbessern.


... es ist schon richtig, dass die Dunkelstromkorrektur das SNR verschlechtert. Es wird halt ein fehlerbehaftetes Signal von einem anderen fehlerbeftetem Signal abgezogen.
...
Aus den Darkframes (i.d.R. etwa soviele wie Lightframes) wird ein Masterdarkframe erstellt (z.B. in DSS) - das Störsignal im Masterdarkframe wird dadurch eliminiert. Das Abziehen des Masterdarkframe von den Lightframes bringt deshalb kein zusätzliches Störsignal in das Bild - das SNR wird dadurch nicht verschlechtert.
Das Gleiche gilt auch für das Ausleserauschen welches mit Biasframes (ein Masterbiasframe) von den Lightframes abgezogen wird.

Details dazu siehe:
http://deepskystacker.free.fr/german/faq.htm
 
Hallo m@sche,

ich denke Du verstehst da was grundlegend falsch. Das eine sind Fehler des Signalpegels, das andere das SNR. Mit den ganzen Korrekturbildern werden nur die Fehler des Signalpegels korrigiert, egal ob die Fehler nun in der Optik oder Elektronik begründet liegen. Das SNR wird dabei aber nicht besser, sondern schlechter, da wie schon ausgeführt die Korrektur mit mit Bildern mit endlichem SNR ausgeführt wird. Bei idealen Bildern würde es zumindest nicht schlechter. Besser kann das SNR nach dem Mitteln nur durch Lowpassfilter oder herunterskalieren werden, aber das ist üblicherweise nicht das was man will.
Die ganze Mathematik dazu findest Du in der Literatur oder auch über die verschiedenen Astroforen.
Du kannst es aber auch ganz einfach selbst ausprobieren. Korrigier mal ein ein einzelnes Light mit einem einzelnen Dark. Das Ergebnis ist gut sichtbar und gut messbar. Mit Summenbildern sind die Effekte etwas kleiner aber immer noch gut messbar.


MfG

Rainmaker
 
... Das eine sind Fehler des Signalpegels, das andere das SNR.

Im SNR sind alle Rauschanteile berücksichtigt, als da sind:
das Schrotrauschen(Photonenrauschen),
das Dunkelstromrauschen,
das Ausleserauschen,
das Quantisierungsrauschen(im AD-Wandler).

Signal = Anzahl Photonen * Quanteneffizenz

Schrotrauschen = sqrt(Signal)

SNR = Signal / sqrt( Schrotrauschen^2 + Dunkelstromrauschen^2 + Ausleserauschen^2 + Quantisierungsrauschen^2)

Wenn das Dunkelstromrauschen (und das Ausleserauschen) reduziert werden kann, dann verbessert sich das SNR.

...
Du kannst es aber auch ganz einfach selbst ausprobieren. Korrigier mal ein ein einzelnes Light mit einem einzelnen Dark. Das Ergebnis ist gut sichtbar und gut messbar.
Das ist genau das was eine Kamera als Langzeitrauschunterdrückung macht, wenn man diese Funktion nicht explizit abschaltet.

Für das Stacken von vielen Aufnahmen wird man immer die Langzeitrauschunterdrückung ausschalten und statt dessen aus vielen Darkframes ein Masterdarkframe erzeugen.


...
Mit Summenbildern sind die Effekte etwas kleiner aber immer noch gut messbar.
Je mehr Einzelbilder im Summenbild stecken, umso besser wird das Ergebnis.
Messen kann man alles, auch wenn es noch so klein sein mag.
 
Oder man hört einfach mal auf mit dem ganzen Dark Firlefanz.
Wir reden doch hier von Hobbyastronomie mit DSLR/DSLM Kameras?
Selbst Frank Sackenheim (sehr guter Astrofotograf) macht keine Darks mehr mit seinen DSLR.
Man kann den Vorschlag von Rainmakers ja ganz einfach mal abwandeln und an seinen älteren Sets testen, einmal die Darks mit ins Programm laden und einmal ohne.
Außer einigen HP wird man keine Verschlechterung sehen, hat sich aber jede Menge Zeit beim erstellen der Darks und beim verrechnen gespart.;)
Auch ich betone noch einmal...sammelt genügend Lights.
 
Hallo,

@ CR6,
wenn Du eine halbwegs neue Kamera hast die, die einen sehr glatten Hintergrund, also ohne Banding oder Verstärkerleuchten hast, und vielleicht sogar noch ditherst, dann macht das Weglassen der Darks, wie Frank es macht, sehr viel Sinn und ist wohl der beste Weg. Neben einer kürzeren Aufnahmesession spart man sich so auch noch die unnötige Belastung des Verschlusses.
Was die alten Darks angeht, so klappt das auch recht gut, aber man sollte nur die Darks (oder besser das Masterdark) einer Session, bzw. einer definierten Temperatur verwenden, denn sonst klappt die notwendige Temperaturkompensation nicht. Bitte beachten, dass hier Bias-Bilder benötigt werden und etwas länger belichtete Darks hilfreich sind. Was sich hier nicht ganz so gut kompensieren lässt ist das Verstärkerrauschen.

@ m@sche,
Du kannst natürlich gerne nur das SNR eines Rohbildes oder einer Reihe Rohbilder verwenden, nur lässt sich dann so eher was über die Kamera sagen, also über das nach der Datenreduktion verfügbare Bild. Das SNR so anzuwenden ist also zwar nicht falsch, geht aber am eigentlichen Problem vorbei.
Das Ergebnis eines Dunkelstromabzuges ist glücklicherweise nicht identisch mit dem einer externen Dunkelstromkorrektur. Die Kamera korrigiert hier echte Rohdaten und verkocht sie erst anschließend zu einem Raw. Für einige Kameras mit Problemen ist das der einzige Weg um vernünftige Astrobilder zu bekommen. Meine 30d war so ein Kandidat, aber auch die D800 von Nikon hat in Teilen mit externen Darks Probleme. Das Problem existiert aber sicherlich auch noch für weitere Modelle.
Mir ging es in dem Beispiel um das direkte sehen, deshalb das Beispiel mit nur einem Dark für nur ein Light. Messen kann man mit der richtigen Software vieles, es ist aber nicht so eindrücklich.


MfG

Rainmaker
 
Hallo,

@ CR6,
wenn Du eine halbwegs neue Kamera hast die, die einen sehr glatten Hintergrund, also ohne Banding oder Verstärkerleuchten hast, und vielleicht sogar noch ditherst, dann macht das Weglassen der Darks, wie Frank es macht, sehr viel Sinn und ist wohl der beste Weg.

Meine R verhält sich da geradezu sensationell und der Frank hat sich die Ra zugelegt.
Demnächst muss ich unbedingt mal die R5 an Astroobjekten testen, M31 bietet sich da an.
 
WERBUNG
Zurück
Oben Unten