• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Wieviel Megapixel hat ein menschliches Auge?

Ich weiß nicht, ob die Welt auf dem Kopf steht. Ich weiß nur, das unser Bordcomputer so flexibel ist, das ein durch eine Spezialbrille auf den Kopf gestelltes Bild binnen kurzer Frist wieder vom Gehirn auf die gewohnte Sichtweise gedreht wird. Leider sagt das aber nichts darüber aus, wie die Wirklichkeit ist. Da aber unser Gehirn die Welt mit aller Gewalt aufrecht stehend sehen will, nehme ich einfach an, das so auch die Realität aussieht!

Das kannst Du einfach herausfinden, indem Du Deinen Arm bewegst, etwas berührst, dich einfach bewegst, oder auf Geräusche in der Umgebung achtest. Bei jedem dieser Vorgänge erkennst Du ob die Welt so gedreht oder gespiegelt ist, wie Du sie wahrnimmst. Schwierig wird es nur, wenn Du die Augen lange Zeit zu machst, nichts hörst und Dich nicht geordnet bewegst. Zum Beispiel wenn Du unter Wasser in einen Sog kommst.
 
(...) Optisch habe ich bei der c't mal die Angabe ca. 1,5 Bogensekunden gelesen (ohne Gewähr). Da kannst du dann ja ausrechnen wieviele MPixel das sind.
Backbone

das entspräche 1/2400 grad -- ich glaube es einfach nicht, da der wert m.e. weitaus zu hoch angesetzt sein dürfte.

beweis:
was für das unbewaffnete auge weit entfernt und wenig wichtig erscheint, wird beim blick durch's fernobjektiv durchaus zum bildbestimmenden faktor. folglich kann die auflösung des auges (+hirn) nicht so eminent hoch liegen, wie die behaupteten 1,5 bogensekunden.
 
Die Frage ist zu relativieren. Wie hoch ist die Gesamtauflösung, die maximal
erzielbare im Kurzzeitspeicher vorgehaltene Bildinformation, denn die primäre
singulär vorgehaltene Auflösung ist da eher bescheiden im Vergleich zur Leis-
tung der vorgehaltenen Abbildung in der Wahrnehmung. Die Umwelt wird mehr
fortlaufend abgescannt denn in einem Blick erfasst.


abacus
 
Zuletzt bearbeitet:
das stimmt allerdings
 
Ist die Eingangsfrage nicht simpel ? :confused:

Wir haben ca 100 Mio Stäbchen im Auge, die uns Nachtsicht geben. Im gelben Fleck, also dem Punkt maximalen Sehens, sind allerdings überhaupt gar keine Stäbchen, deshalb kann man mit Nachtsicht nichts wirklich scharf sehen. Und bei Tageslicht sind Stäbchen hoffnungslos übersteuert.

Und wir haben ca 3-6 Mio Zäpfchen, von denen 8% blau sehen und der Rest sich in für den jeweiligen Menschen indivuellen Anteilen auf Rot und Grün verteilt (wobei es sich eigentlich nur um zwei verschiedene Grüntöne dreht, aber mit diesen beiden Zäpfchenarten unterscheidet man eben zwischen rot und grün).

Wenn irgend einer dieser Zäpfchenarten oder die Stäbchen nicht richtig funktionieren, entstehen die verschiedenen Formen von Blindheiten (Farbblind, Nachtblind, Tagesblind etc).

Grundsätzlich haben wir also nur 3-6 Megapixel, in Stereo. Das ist der Input, aus dem unser Auge und unser Großhirn dann unsere visuelle Wahrnehmung herstellt.

Wie hoch die Auflösung für Fotodrucke sein muß, ist damit natürlich nicht beantwortet, wurde hier im Thread aber schon gesagt (300dpi).




Das wäre fein! - Ist aber nicht so, wir müssen uns mit ca. 0,5-1 Bogenminute begnügen.
Das klingt schon viel realistischer als Bogensekunde. :D

was mich am auge fasziniert ist der wahnsinnig schnelle Auto-Focus...
Der wird mit dem Alter immer langsamer. Ich vermute jetzt mal ins Blaue hinein, es handelt sich um einen wahnsinnig aufwendigen Kontrast-AF, dem durch die Stereosicht noch weiter auf die Sprünge geholfen wird.

Zumindest ist mir nicht bekannt, das die Stäbchen in irgend einer Art und Weise auf die Phasenunterschiede des Lichtes reagieren. Eine aktiver Autofokus per Ultraschall oder Infrarotlicht fällt als Theorie erst recht flach.
 
Das kannst Du einfach herausfinden, indem Du Deinen Arm bewegst, etwas berührst, dich einfach bewegst, oder auf Geräusche in der Umgebung achtest. Bei jedem dieser Vorgänge erkennst Du ob die Welt so gedreht oder gespiegelt ist, wie Du sie wahrnimmst. Schwierig wird es nur, wenn Du die Augen lange Zeit zu machst, nichts hörst und Dich nicht geordnet bewegst. Zum Beispiel wenn Du unter Wasser in einen Sog kommst.

Na, das Verfahren ist auch nicht unbedingt objektiv. Während die morgentliche Rasur vor dem Spiegel problemlos abläuft, versuche mal über einen Spiegel gesehen eine Schraube zu lösen. Unser Tastsinn und ebenfalls das Gehör können uns ebenso täuschen, wie der Sehsinn! Alles was wir mit unseren Sensoren glauben wahrzunehmen, kann von unserem Gehirn mit etwas Training beliebig "umgepolt" werden. :devilish: Und ob rechts wirklich rechts und oben wirklich oben ist, kann zudem auch eine Interpretationsfrage sein!:rolleyes:
 
Zitat PM:

Myhrvold hat hierzu Folgendes berechnet: Im Idealfall, also mit perfekten und nicht müden Augen, sieht der Mensch mit 576 Megapixel. Verglichen mit den 1296 MP eines Weißkopfadlers ist das natürlich eher wenig.
 
Zitat PM:

Myhrvold hat hierzu Folgendes berechnet: Im Idealfall, also mit perfekten und nicht müden Augen, sieht der Mensch mit 576 Megapixel. Verglichen mit den 1296 MP eines Weißkopfadlers ist das natürlich eher wenig.

Folgende Überlegung:

Ein Full-HD Fernseher hat eine Auflösung von 1920x1080 Pixel (= 2.073.600 Pixel). Das Bild besteht aus 3x so vielen Farbpunkten, damit wären das gerade mal 6.220.800 Farbpunkte. Würde das Auge tatsächlich 576.000.000 Pixel auflösen, dann müsste man ohne Probleme jeden einzelnen Farbpunkt erkennen können.

Ich kann das nicht. Und ich bin überzeugt, dass das niemand kann. Wenn ich nahe genug ans Panel rangehe, bin ich allenfalls in der Lage, die einzelnen Farbpunkte zu erkennen. Aber niemals alle gleichzeitig auf einen Blick.

Würde die Auflösung von 576 MPix stimmen, dann müsste ich in der Lage sein, knapp 93 Fernseher mit einem Blick komplett zu erfassen und dabei jeden einzelnen Rot-Grün-Blau Farbpunkt auseinander zu halten.
:eek:
 
Zitat PM:

Myhrvold hat hierzu Folgendes berechnet: Im Idealfall, also mit perfekten und nicht müden Augen, sieht der Mensch mit 576 Megapixel. Verglichen mit den 1296 MP eines Weißkopfadlers ist das natürlich eher wenig.


typischer PM-Unsinn

das menschliche Auge hat 125 Millionen Stäbchen die für Hell-Dunkel (vorwiegend im Dunklen aktiv) zuständig sind, und ca. 6 Millionen Zäpfchen (im Dunkel inaktiv) die fürs Farbsehen zuständig sind.

Die kann man aber nicht miteinander Addieren, da
- wie gesagt die Zäpfchen für das Scharfsehen zuständig sind
- man ohnehin nicht alle gleichzeitig benutzen kann.

Selbst wenn man diese Addieren würde wäre man nur bei ca. 130 Millionen.
Real werden es wohl nur so 10 Millionen oder eher weniger sein die bei "einem Blick" für den augenblicklichen Scharfblick wichtig sind.
 
Real werden es wohl nur so 10 Millionen oder eher weniger sein die bei "einem Blick" für den augenblicklichen Scharfblick wichtig sind.

Zudem stehen die nur im Punkt des schärfsten Sehens einigermaßen dicht beieinander, weiter nach außen stehen die wesentlich weniger eng, und sind in den äußeren Bereichen auch noch zu Gruppen zusammengeschaltet. Macht auch Sinn, weil das äußere Sehfeld nicht zum fokussierten Sehen genutzt wird, sondern zum schnellen wahrnehmen von Bewegungen am Blickfeldrand.
Einfaches Experiment: Fokussiere den Blick auf ein Wort am Monitor vor Dir, und halte Deine Hand ca. 70° bis 80° neben Dich. Du wirst nicht sehen können, ob Du gerade einen oder mehrere Finger ausgestreckt hast, wirst aber jede Bewegung sofort wahrnehmen.
 
Das menschliche Auge hat Sinneszellen, die man Zapfen und Stäbchen nennt. Man könnte eine Sinneszelle mit einem Pixel vergleichen. Es gibt ca. 6 Millionen Zapfen (verantwortlich für das Farbensehen) und ca. 120 Millionen Stäbchen (für die Hell-Dunkel-Wahrnehmung). Das Ganze 2x, somit ergeben sich rund 252 Mill. Pixel.
Nur sendet das Auge kein RAW ans Hirn und die ganzen Zellen senden auch nicht gleichzeitig.
Und das Endergebnis ist nicht nur ein Bild, sondern auch Steuerungsanweisungen, Warnungen und Fehlermeldungen uvm., manchmal sogar Falschmeldungen. Einige Biologen sehen das Auge sogar als Zweigstelle des Gehirns – nicht als bloßen Fotoapparat, so dass man das Auge von der dazugehörigen Informationsverarbeitung gar nicht trennen kann.

Von daher sind die theoretischen Überlegungen oben zielführender als das reine Abzählen der Fotorezeptoren.
 
Nur sendet das Auge kein RAW ans Hirn und die ganzen Zellen senden auch nicht gleichzeitig.
Und das Endergebnis ist nicht nur ein Bild, sondern auch Steuerungsanweisungen, Warnungen und Fehlermeldungen uvm., manchmal sogar Falschmeldungen. Einige Biologen sehen das Auge sogar als Zweigstelle des Gehirns – nicht als bloßen Fotoapparat, so dass man das Auge von der dazugehörigen Informationsverarbeitung gar nicht trennen kann.

Von daher sind die theoretischen Überlegungen oben zielführender als das reine Abzählen der Fotorezeptoren.

Du hast nicht verstanden (oder übersehen), weshalb abgezählt wurde. Nicht, um des Abzählen Willens und um das Auge als Fotoapparat zu verstehen!

Sondern als Kritik an der tumben PM-Abschreiberei, ein Auge häte 576 MP.


A) warum nicht 577 oder 572.8?

B) warum und wie MEHR ALS ES ZELLEN SIND?


Fällt was auf?
 
Die allesamt eine differenzierte Wahrnehmungsfähigkeit aufweisen - je nach dem, ob sie sich im zentralen Sichtfeld oder im Randbereich befinden, wo wir unschärfer (unfokussiert) wahrnehmen und eher Muster oder Bewegungsinformationen ans Gehirn übermitteln.

Ein anderer Aspekt dieser rein technischen Betrachtungsweise ist die Steuerung der Wahrnehmung selbst durch unser Gehirn. Bewegen wir uns im Alltag (ständig wiederkehrende Bewegungsabläufe) in bekanntem Terrain (und sind innerlich mit anderen Dingen beschäftigt) kann das Gehirn die Detailliertheit der Wahrnehmung soweit runterfahren, dass von allen erfassten Informationen nur noch "keine Besonderheiten" und "keine Gefahren" übrig bleibt.

Typische Beispiele sind das Verlernen des "richtig Hinschauens" durch Erwachsene oder - das merkwürdige bis irrationale Verhalten im Verkehr bei laufenden Telefongesprächen (geteilte Aufmerksamkeit).

LG Steffen
 
typischer PM-Unsinn
Ist vermutlich gar kein so großer Unsinn.

Ich würde eher vermuten, das die PM die Auflösung des gelben Fleckes (die mir leider nicht bekannt ist, keine Quelle dazu gefunden) auf das gesammte Sichtfeld hochgerechnet hat.

Da man das Auge ja hin- und herbewegt, um Details aufzulösen, und das Sichtfeld zum Teil 180 Grad erreicht, der Bereich des gelben Fleckes aber nur 3 Grad sind, könnte ein halbes Gigapixel an Auflösung eine durchaus realistische Zahl sein.

Man sollte sich eben auch immer klar sein: das Auge ist als optisches Objektiv extrem primitiv und hat nur einen winzigen Bereich, in dem es wirklich sauber scharf stellt (bei Normalsichtigen).
 
Der Schmäh ist aber auch die Leistungsfähigkeit des Latenzspeichers, der die
Daten des eye-scanners verarbeitet und uns die wesentlichen Daten so aufbe-
reitet, dass wir nicht an einer Datenüberflutung leiden.

Wie bereits beschrieben, wird ein Teil der Peripherie nur in Hinblck auf die
Gefährdung bzw. das Gefährdungspotential der physischen Integrität hin lau-
fend untersucht und im Orientierungssinn ist ein flaches 3D-Modell unserer
Umgebung hinterlegt, die Erde ist ja eine Scheibe... Und nicht umsonst haben
wir die Augen nebeneinander angelegt bekommen, wären die vertikal würde ja
die Hutkrempe daran scheuern und deshalb wurde auch von der Evolution vor-
ausschauend das dritte Auge in der Stirn abgeschafft, während die Echsen das
ja noch zum Teil als lichtempfindliche Stelle besitzen.

Der Speicheraufwand für ein volles 3D-Modell wäre enorm, andererseits schaf-
fens es kleinere flugfähige Lebenwesen ja auch so über die Runden zu kom-
men bzw. heim in dem Bau/Nest zu kommen.


abacus
 
Hallo allesamt

Ich fasse zusammen:

Auge:
Farbtiefe: ca. 18,9
Dynamik: ca. 13,3
Megapixel: ca. 9MP (für A4) | 18MP (für A3)
Blende: F3,25 (F2,4 – F8,5)
Nahgrenze: ca. 10 – 20cm
Brennweite: ca. 50mm KB
Bildfrequenz: ca. 20/s

Alles mit Vorsicht zu geniessen, denn das Auge ist etwas ganz Anderes, als ein Fotoapparat oder eine Filmkamera und praktisch eigentlich unvergleichbar ...

Liebe Grüsse

Martin

...
 
WERBUNG
Zurück
Oben Unten