• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Web-Fotos in 1:1-Auflösung noch zeitgemäß?

Die meisten mobilen Zugänge (Edge, UMTS, LTE) komprimieren JPEGs ohnehin noch stark nach. Von daher muss man vielleicht gar nicht so stark auf die Dateigrößen achten (oder gar spezielle Versionen für langsamere Zugänge bereithalten).

Echt, ist das so? Hast du dafür eine Quelle? Würde in der Tat das gesamte Problem entschärfen. Dann wäre es sogar kontraproduktiv bis auf die Grenze zu komprimieren.
 
Hast du dafür eine Quelle?
Definitiv weiß ich es von den UMTS-Zugängen der Telekom und von Vodafone, die ich selber gelegentlich benutze. Bei Vodafone kann man auf einer Service-Seite sogar einstellen, wie stark nachkomprimiert werden soll.
Im Zusammenhang mit der Galerie hier im Forum wurde das Thema auch schon angeschnitten, weil durch das Verfahren aus den JPEGs auch alle Metadaten (EXIFs, Farbprofile etc.) entfernt werden.
Bei O2 und E-Plus weiß ich es nicht so genau. Kann sein, dass die keine Nachkomprimierung machen.
 
Inzwischen ist mir noch ein weiterer Gedanke gekommen: Die meisten mobilen Zugänge (Edge, UMTS, LTE) komprimieren JPEGs ohnehin noch stark nach.
Eigentlich wollte ich gerade fragen, wo Du diesen Unsinn her hast, aber dann habe ich mich doch erstmal informiert um dann erschreckt festzustellen, daß Du damit teilweise recht hast. :eek:

siehe bspw.: http://schoenergesehen.de/technik/f...schen-farbprofil-mobilfunk-komprimierung-1113

Mir ist unbegreiflich, daß sowas überhaupt erlaubt ist. :confused:
Da könnte man der Post auch erlauben, Satzbau und Grammatik in Briefen zu optimieren. :rolleyes:

Wie es scheint, betrifft das aber nicht jeden Provider gleichermaßen und ist auch noch von persönlichen Eingriffen abhängig. In Kenntnis der Manipulationen der abgerufenen Dateien ist es wenig ratsam, sich an die Grenzen des erträglichen heranzutasten, weil die nachträglich stärkere Komprimierung die Fotos weiter verschlechtert. Fraglich, wie intelligent da vorgegangen wird, also ob es einen erheblichen Einfluß hat, wie hoch die Kompressionsrate vor der Manipulation durch die Provider ist.

Zu den Dateigrößen: darauf zugunsten der Mobilen zu achten ist zwar lobenswert, aber ist das auch nötig, wenn nur 2-3 Fotos auf der Seite sind und es dabei lediglich um bspw. weniger als insgesamt 200 KB Unterschied geht?

Und mit Blick auf die Zukunft stelle ich mir die Frage, wie lange wir noch die derzeitigen Premiumpreise für mobiles Webtraffic haben werden.
Gerechtfertigt ist es gerade bei geringen Datenmengen kaum. Man beachte die Preisunterschiede zwischen bspw. 100 MB / 1 GB / 5 GB-Paketen bei dem jeweils gleichen Anbieter. Und gleichzeitig gibts sogar kostenfreie Tarife, bei denen man nix bezahlt und 100 MB sogar mit hohem Tempo nutzen kann.
 
Zuletzt bearbeitet:
Dann müssen in dem Budget halt noch ein paar Euro für einen Studenten drin sein, der die Bilder manuell hochlädt und zuordnet. Unter den Fans des Vereins sollten sich doch jemand finden lassen, der machen möchte.

Jein, ist ja nicht mehr mein Problem und die Seite hatte mehrere Dinge, die man so lösen müsste. Davon abgesehen bin ich mir gerade gar nicht sicher, ob so ein einfaches Hochladen und mit gleichem Dateinamen ersetzen funktioniert weil manche CMS eigene Metadaten in die Datenbank schreiben zu jedem Bild; müsste man dann jedenfalls testen. Aber das soll ja nicht das Problem sein, ich wollte verdeutlichen, dass sich solche Entscheidungen in der Zukunft negativ auswirken können auch wenn man heute ein paar KB an Traffic spart.
Wobei das in dem Fall v.a. mit dem veralteten CMS zusammenhängt, das jetzt einfach unsicher wird. Wenn man eine Seite ohne PHP und SQL programmiert, dann hat die ja groß erstmal keinen Angriffspunkt außer dem Webserver selbst...


Echt, ist das so? Hast du dafür eine Quelle? Würde in der Tat das gesamte Problem entschärfen. Dann wäre es sogar kontraproduktiv bis auf die Grenze zu komprimieren.

Nicht nur komprimieren die Provider (wobei ich auch dachte, dass das nur mal kurz passierte und dann "verboten" wurde), diverse mobile Browser machen das auch bzw. kann man es einstellen. Und wie schon beschrieben kann man ja seine eigene Seite auch noch teilweise Sachen komprimieren lassen bzw. cachen lassen, damit nur noch eine statische Seite ausgegeben wird anstatt dass die dynamischen Inhalte erst berechnet werden müssen und dann vollständig ausgeliefert werden.

Und auch die Kosten für mobiles Internet werden fallen. Ich persönlich nutze 3GB LTE im D2 Netz und bekomme in 2 Jahren 40 Euro raus :top: und zahle keinen einzigen Cent :p. Spartarife für wenige Euro findet man immer wieder. Im Ausland ist man da viel weiter (also billiger). Und grundsätzlich gesehen sind bei vielen Seiten nicht die Bilder das Problem, sondern Facebook/Google/Twitter Buttons mit einem Dutzend Trackern, Werbeanzeigen, Popups, Cookiehinweise,...

Ich behaupte mal, dass es bei dem Thema kein Richtig oder Falsch gibt. Aber es ist sehr interessant hier verschiedene Erfahrungen zu lesen :).
 
Das mit den mehreren Bildausführungen pro bild ist ein Klacks wenn man es bspw. in der Ps-Erweiterung "Image Prozessor Pro" automatisch
(mit richtiger Dateiunamenerweiterung) als Stapelverarbeitung durchlaufen lässt. Im IPP kann man bis zu 10 Größen auf einmal generieren lassen.
 
Leider kann ich im Tablet-Browser den Zoomfaktor nicht genau bestimmen.
Welchen meinst Du? Den Standard-Zoomfaktor (Bildschirmeinstellung und Zoom des Browsers bei neuen/unbekannten Seiten) oder den manuellen Zoom per Touch-Geste?

Ersteres scheint problemlos zu funktionieren (window.devicePixelRatio), letzteres rückt wohl kein Browser heraus, das hat noch nciht einmal Auswirkungen auf CSS Media Queries.

Wenn man den Vergleich hat, merkt man erst, wie unscharf die "normalen" Bilder auf Webseiten sind.
Ich merke da auf dem Surface Pro 2 mit 150% Skalierung nicht wirklich viel (insb. nicht bei meinem normalen Betrachtungsabstand). Bei Deiner Testseite muss ich schon extra danach suchen, und im Zusammenhang mit der Sat-Seite wäre es für mich als Besucher nicht relevant, dass die Solar-Panels in der höher aufgelösten Version etwas besser aussehen.

Wolltest Du mir dagegen die Solar-Panel verkaufen oder Dein Hauses in allen Einzelhieten präsentieren, dann wäre es etwas anderes.

Wenn man schon ein Zugeständnis an Besitzer von Retina-Displays macht, sollte man auch die Besitzer von Wide-Gamut-Displays nicht vernachlässigen. Und da die meisten Browser ohne eingebettetes Profil kein Farbmanagement machen, wären die Bilder dann zu bunt.
Ok, wenn es so ist, dass sich auch moderne Browser nicht an die Standarddefinitionen haltwn (w3.org gibt schon immer vor, dass Grafiken ohne Farbprofil als sRGB zu behandeln sind), dann macht das natürlich Sinn.

Um welche Bilder geht es hier?
z.B. um die hier: http://satellitenempfang.info/montage.html

Definitiv weiß ich es von den UMTS-Zugängen der Telekom und von Vodafone,
Bei meinem alten Vodefone Surfstick (bzw. dem zugehörigen Vertrag) konnte ich das abschalten, beim Surfen per Tethering über das iPhone und Vodafone ist mir das noch nie aufgefallen, und der Test zeigt: die Bilder sind identisch, Vodafone löscht aber die EXIF und IPTC-Daten. Was ist denn das für ein bescheuerter Business-Tarif/Proxy, mit dem Surfstick habe ich das nie getestet?

Mir ist unbegreiflich, daß sowas überhaupt erlaubt ist. :confused:
Das nennt sich schlicht Zwangsproxy und ist für jeden, der sich auch nur ein wenig um die Sicherheit seiner Internetverbindung kümmert, zumindest im Desktop-Browser sofort zu sehen (die Mobilverbindung ist meist langsam und damit sieht man, dass die Bilder über einen Proxy anstatt von der Orignaladresse ausgeliefert werden.

Da könnte man der Post auch erlauben, Satzbau und Grammatik in Briefen zu optimieren. :rolleyes:
Ablock-Plus wurde ja gerade gerichtlich "zugelassen" und (mehr oder weniger nutzlose) Webfilter sind z.B. als "Kinderschutz" auch nicht so selten.

Zu den Dateigrößen: darauf zugunsten der Mobilen zu achten ist zwar lobenswert, aber ist das auch nötig, wenn nur 2-3 Fotos auf der Seite sind und es dabei lediglich um bspw. weniger als insgesamt 200 KB Unterschied geht?
Wenn es nur darum geht, dann vieleicht nicht. Es gibt aber genügend Leute, die ihre wenigen Originalbilder auf der Seite veröffentlichen und dann in kleiner Anzeigegröße in Berichte einbinden (sehr gerne auf kleineren Vereinsseiten gesehen).
 
Wenn man SEO mit in die Überlegungen einbezieht ist Response Design schon wichtig da Google, Seiten die das nicht können, abstraft.
Ebenfalls wird abgestraft wenn die Ladezeiten zu hoch sind. Ein bereitstellen der Bilder vom Server in bereits für die Displaygröße
passender Auflösung ist für Suchmaschinen optimierte Seiten ebenso wichtig. Ob dies über PHP pixelgenau geschieht (Optimum)
oder bspw. drei bis vier unterschiedliche Größen hinterlegt werden spielt keine große Rolle weil beides gut funktioniert.

Das UMTS-Anbieter Bilder teilweise noch komprimieren liegt wohl auch daran das heutzutage immer weniger Bildbereitsteller sich
Gedanken über eine sinnvolle Komprimierung machen. Möchte nicht wissen wie viele User aus Unwissenheit "100%-Jpegs" hochladen.

Wenn dann Anbietertester Aufbaugeschwindigkeitsmessungen vornehmen um Netze miteinander zu vergleichen ohne diese Hintergründe
mit zu berücksichtigen liegt es auf der Hand warum Netzbetreiber dies so handhaben.

Es sind aber auch nicht nur Netzberteiber die das machen. Facebook bspw. macht dies mit zu großen Bildern auch. Dazu gehört für
den User wiederum ein gewisses Know-How um zu wissen wer da nun differenziert und wo genau die Grenzen liegen bei denen es
noch unangetastet bleibt. Bei den Seiten die prinzipiell nochmal kompriemieren ist es dann wiederum optimal 100%Jpegs hochzuladen.
Eine allgemein gültige Regel gibt es also nicht um so mehr ist Kenntnis der jeweiligen Besonderheiten gefragt.
 
Zuletzt bearbeitet:
-- Warum die aktuellen Bilder mit "subsampling off" gespeichert wurden, weisst vermutlich noch nicht einmal Du (sondern nur Olympus).
Jetz kapiere ich endlich, wie Du auf Olympus kommst. Da habe ich doch tatsächlich die EXIFs noch drin... :o

Die besagten Bilder stammen aus dem Jahr 2002, und ich weiß nicht mehr genau, womit ich sie damals runterskaliert und JPEG-komprimiert habe; vermutlich war es Photoshop 5 LE (das lag einem meiner Geräte bei, daher hatte ich es zeitweise in Gebrauch).
Auf Sachen wie Subsampling habe ich da noch nicht geachtet (kann man, glaube ich, in Adobe-Programmen auch gar nicht frei steuern). Wobei ich heute eigentlich auch meist auf 4:4:4 stelle, wenn ich Web-Bilder in 100-%-Auflösung erstelle. Nur die EXIFs würde ich heute weglassen, soweit es nicht um Kameravergleiche oder sowas geht.
 
Ich denke, JPEGmini ist was für Leute, die möglichst bequem und ohne lange Versuche größere Bildermengen nachkomprimieren wollen. Wunder in Sachen Qualität-Speicher-Verhältnis bewirkt das Programm keine.

Das nicht. Es ist ein reines Workflow-Tool mit einem sehr guten Dateigröße/Qualitätskompromiss. Aber etwas überteuert IMHO.
 
Wenn man SEO mit in die Überlegungen einbezieht ist Response Design schon wichtig da Google, Seiten die das nicht können, abstraft.
Bislang wird das meines Wissens noch nicht angewendet sondern ist noch im Planungsstadium. Design wird dann wichtiger als der Inhalt. :rolleyes:
Dabei behauptet Google bislang in seinen SEO-Ausführungen, daß der Inhalt das wichtigste wäre und nicht SEO-Voodoo.
Abwarten, wie sehr das letztlich gewichtet wird. Anfänglich soll das wohl auch nur Auswirkungen auf die Suche auf Mobilgeräten haben. Und das im Zeitalter von HD-Ready aufwärts auf den meisten aktuellen Mobilgeräten. :p

Responsive Design hat sich m.M.n. durch den techn. Fortschritt schon halb überlebt, aber das sehen manch Andere gänzlich anders.
Ebenfalls wird abgestraft wenn die Ladezeiten zu hoch sind. Ein bereitstellen der Bilder vom Server in bereits für die Displaygröße
passender Auflösung ist für Suchmaschinen optimierte Seiten ebenso wichtig.
Das höre ich zum ersten Mal. Zumal ich mich dann frage, wie das ermittelt wird. Inbesondere durch die primitiven Suchmaschinenroboter, die eine sehr vereinfachte Sichtweise auf Webseiten haben.
 
Bislang wird das meines Wissens noch nicht angewendet sondern ist noch im Planungsstadium.
Das wird längst so gemacht und lässt sich deshalb auch durch Tools von Google messen.
Das bedeutet ja nicht das Design wichtiger ist als Inhalt. Google belohnt einfach alles was
gut für den Besucher ist und da gehört ein schneller Seitenaufbau nun mal dazu.
Das hat mit "SEO-Voodoo" also gar nichts zu tun. Was du wahrscheinlich meinst sind
Manipulationsversuche die das Ranking puschen sollen. Die funktionieren schon eine
Weile nicht mehr und werden inzwischen sogar eher abgestraft.
 
Zuletzt bearbeitet:
...und da gehört ein schneller Seitenaufbau nun mal dazu.
Als wenn man den hätte, nur weil man responsive ist. :lol: Aber solange meine Seiten trotz fehlendem Responsive nicht nach unten rutschen, solls mir egal sein, was da Vereinzelte bei Google für sinnvoll halten.
Das hat mit "SEO-Voodoo" also gar nichts zu tun.
Ich persönlich betrachte alles als SEO-Voodoo was zum Ziel hat, die Position in den Suchergebnislisten zu verbessern. Das kann auch der tatsächliche oder Pseudoeinbau von Responsive-Funktionen sein.
 
Als wenn man den hätte, nur weil man responsive ist. :lol:
Wenn man den Aufwand treibt, den beiti hier gerade bespricht, dann nicht (höhere Bildauflösung bei gleicher Dateigröße).

Wer aber siene bisher genutzten Parameter zur Bildspeicherung weiter nutzt und grundsätzlich höher aufgelöste Bilder ausliefert, weil es ja zufällig ein Anzeigegerät mit höherer Auflösung sein könnte, hat Nachteile gegenüber einer Seite, die Bildergrößen (und damit Dateigrößen) passend zum Endgerät ausliefert.

Dass genau dieses Verhalten von Anwender durchaus gewollt sein könnte (weil er die Bilder lokal abspeichern oder drucken möchte um sie auch offline verfügbar zu haben) bedenkt dabei keiner.
 
Natürlich hat man den bei den kleineren Ansichten. Wenn man für die auch kleinere Bilder verwendet wird es logischerweise auch schneller.
Und doch kann es durchaus sein und das sehr häufig und sogar überwiegend, das die Fotos bei einer nicht Responsiv-Seite kleiner sind, weil die Abmessungen geringer oder die Kompression höher ist. Dazu kommen die jeweiligen unterschiedlich schnellen Serveranbindungen die häufig entscheidender sind als jegliche Dateigrößen.

So kann es sein, daß eine Webseite mit 3 MB Inhalt schneller geladen wird als eine mit 300 KB. In der Theorie mag der Responsive-Ansatz Vorteile haben, aber in der Praxis löst sich der kleine Vorteil schnell in Luft auf bzw. ist selbst der theoretische Vorteil nicht der Rede wert. Und rechnen tut sich der höhere Entwicklungs- und Pflegeaufwand auch nur in Einzelfällen mit speziellen Zielgruppen.
 
Fakt ist - kleine Bilder (bei gleicher Komprimierungsrate) laden schneller als große, das lässt sich auch nicht wegdiskutieren.
 
Und rechnen tut sich der höhere Entwicklungs- und Pflegeaufwand auch nur in Einzelfällen mit speziellen Zielgruppen.
Welcher Aufwand soll das sein, wenn man die Bilder so erzeugt, wie es hier schon öfters genannt wurde (wovon ich für Bilderseiten zwar nichts halte, aber da stehe ich offensichtlich alleine da):
Eine Abfrage von "window.devicePixelRatio" (funktioniert bei mir am PC mit FF und IE, Android mit Chrome und einem alten Android-Browser und Safari vom iPhone iOS 8.3) auf der Seite und dann über den Server die passende Version des Bildes geladen. Bei Nutzung von JS geht das auch ohne cookie, wie es das von SssnakeDoc genannte Script leider erfordert.

Die passend kleinere Version des Bildes kann man problemlos auf dem Server erzeugen lassen.

Somit ergibt dies einen (minimal) höheren Aufwand für die initiale Erstellung der ersten Seite. Danach kann man den Code kopieren und die Bilder immer in hoher Auflösung auf den Server laden. Einen höheren Pflegeaufwand sehe ich nicht.

Was den kleinen Vorteil betrifft: bei den paar Bildchen auf der Beispielseite von Beiti ist das für mich zu vernachlässigen. Wenn man aber mal eine Seite mit hunderten oder gar tausenden von Bildern hat und diese trotzdem Retina-tauglich präsentieren möchte, dann sieht es anders aus.

Bei solchen Mengen macht man sich selbst bei Dateigrößen von 100-200 KB pro Bild Gedanken über Lazy-Load und sonstige Techniken, um auch in Bildergallerien nur die Bilder zu laden, die aktuell angezeigt werden müssen.
 
Welcher Aufwand soll das sein, wenn man die Bilder so erzeugt
Damit meine ich nicht die serverseitige Bildberechnung sondern den Gesamtaufwand für die Netzpräsenz. Die Erstellung des Webdesigns und die Anpassung der Gestaltung in Abhängigkeit von der genutzten Auflösung und Skalierungen um es am Ende auch wieder falls nötig auszugleichen. Zermarternde Hin- und Herrechnerei die auch nicht immer funktioniert und abhängig ist von Javascript-Unterstützung und ggf. korrekten Browseridentifizierungen, die nicht immer stimmen müssen.

Ich unterbinde es beispielsweise, daß sich mein Smartphone auf Websites als Smartphone ausgibt, weil es oft nichts Übleres gibt als die Umleitung auf die abgespeckten Mobilversionen von Websites.

Es betrifft ja nicht nur Fotos, sondern auch das Design, Menü/Navigationslängen und -breiten, Textbreiten, Tabellen, Videos usw.
Text auf bspw. 27 Zoll Bildschirmbreite läßt sich nicht anständig lesen. Tabellen lassen sich nicht sinnvoll verbreitern oder schmaler machen. Die Lesbarkeit und damit ein stimmiges Design läßt sich ohne hohen Aufwand nur für eine Auflösung anständig herrichten.
 
Ein iPhone 6+ hat ja schon um die 400 ppi und dürfte im Augenblick die Referenz in Sachen Pixeldichte sein. Wobei ich mir aber vorstellen kann, dass da auch ein Sättigungseffekt eintritt.
Kaum angedacht, schon veraltet:
http://www.golem.de/news/sonys-xper...te-smartphone-mit-4k-display-1509-116049.html

Sony Xperia Z5 mit 800ppi (4K auf 5,5"), da sind also schon 4K-Bilder auszulliefern, wenn man dem Besitzer etwas ganz besonderes bieten möchte und ein erklärendes (Schau)Bild mal im "Vollbildmodus" angezeigt werden soll.
 
Es betrifft ja nicht nur Fotos, sondern auch das Design, Menü/Navigationslängen und -breiten, Textbreiten, Tabellen, Videos usw.
Text auf bspw. 27 Zoll Bildschirmbreite läßt sich nicht anständig lesen.
Das hat aber nur sehr bedingt etwas mit der Geräteerkennung zu tun, sondern eher mit dem beabsichtigten Zielpublikum der Seite.

Auf Grund von eigenen Geräten, auf denen ich meine Seite noch nie vernünftig darstellen konnte, bin ich dabei, das Layout für unzeitgemäß mickrige Auflösungen anzupassen (das Aussitzen klappt leider nicht). Ich verstehe zwar bis bís heute nicht, warum so viele Leute auf ihren Tablets surfen, aber diese Unsitte (oder sind es nur die eigenen, schlechten Augen?) muss ich halt irgendwann akzeptieren, wenn ich die mind. 15% der Besucher nicht von der Seite ausschließsen will,

Den Aufwand für das Layout muss ich also sowiso treiben, wenn ich meine eigene Seite auf dem Tablet (9-10,8" bei FullHD) darstellen möchte. Auf Grund der Skalierung der Anzeige auf 150% bleibt davon effektiv noch weniger Platz übrig wie auf meinem alten Laptop (1366x768 bei 12,5" und 100% Darstellung). Wenn ich dann noch mein 8"-Tablet nehme, muss sich meine Seite sogar noch auf altmodisch erscheinenden 1024x640 Pixel (1280x800 bei 125% Skalierung) zumindest brauchbar darstellen und bedienen lassen.

Dass die Seite auf dem iPhone nicht mehr vernünftig aussieht, sich mit dem neuen Layout aber wenigstens noch ansatzweise bedienen lässt, ist mir fast egal.
 
WERBUNG
Zurück
Oben Unten