Kategorien
Aufbaukurs Fotografie Fotokurs

Aufbaukurs, Lektion 4

Wirrwarr beim Speichern: Dateiformate für Bilder

Pixel-Grafik 2 BitAus den vorangegangenen Lektionen im Aufbaukurs wurde (hoffentlich) ersichtlich, dass sich die Größe eines Bildes im Wesentlichen aus 3 Faktoren zusammensetzt: Breite und Höhe des Bildes, sowie Farbtiefe.

Man kann sich das etwa wie ein (kastenförmiges) Aquarium vorstellen, dessen Füllmenge ja auch durch die Formel „Grundfläche mal Wassertiefe“ bestimmt wird. Genauso gilt für die Speichergröße eines Bildes zunächst einmal: „Grundfläche mal Farbtiefe“.

Die schon aus der vorigen Lektion bekannte Abbildung zeigt schematisch ein Bild mit 5 Pixeln Breite, 3 Pixeln Höhe und einer Farbtiefe von 2 Bit (4 Farben). 15 Pixel x 2 Bit sind 30 Bit, die zum Speichern dieser 15 Pixel nötig wären.

Hinzu kommt natürlich noch die Speicher-Information für die Farb-Palette. Darin würde hier stehen, dass 00 für Schwarz stehen soll, 01 für die Farbe Cyan, 10 für die Farbe Magenta und 11 für Weiß. Bei diesem Mini-Bild mit seinen 15 Pixeln braucht man wohl mehr Speicherplatz für die Palette als für die eigentlichen Pixel, aber bei normal großen Bildern macht die Palette nur einen kleinen Bruchteil der Dateigröße aus. Daher vernachlässigen wir dies nun erst einmal. Für das Aufbewahren von Farbfotos kommen GIF-Dateien ohnehin nicht in Frage, wegen ihrer Palette und ihrer reduzierten Farbtiefe.

Bei einem „Echtfarben“-Bild ohne Palette und mit einer Farbtiefe von 24 Bit stehen für jeden RGB-Farbkanal je 256 Stufen, also 8 Bit (1 Byte) zur Verfügung. Ein 15-Pixel-„Foto“ (immerhin mehr als doppelte Auflösung der ‚Blödmarkt-Kamera‘ aus der vorletzten Lektion) benötigt daher 45 Byte. Man kann sich leicht vorstellen, dass bei großen Foto-Dateien da sehr schnell etliche Megabyte zusammenkommen. Wenn 15 Pixel 45 Byte benötigen, dann benötigen 15 Megapixel logischerweise rund 45 Megabyte.

Kompression von Bilddaten

Selbst ein normal großes Foto von 6, 10 oder 14 Megapixeln hat nach dieser Faustformel etwa 18, 30 oder 42 Megabyte Größe. Zum Glück haben sich die Entwickler da etwas einfallen lassen, damit Speicherkarten bzw. Festplatten nicht ganz so schnell voll sind: Die Kompression von Bilddaten. Nicht nur „Pressefotos“ werden kräftig zusammengepresst, so dass sie trotz gleicher Pixelzahl nun wesentlich weniger Speicherplatz verbrauchen.

Dabei wird unterschieden zwischen verlustfreier und verlustbehafteter Komprimierung. Man kennt dies auch aus dem Musik-Bereich. Während eine Musik-CD mit ca. 15 bis 20 Stücken schon mehr oder weniger voll ist (knapp 700 Megabyte unkomprimierte Musik), benötigen die gleichen Songs als komprimierte Mp3-Dateien nur noch einen Bruchteil des Speicherplatzes.

Hier eine stark vereinfachte Beschreibung, was verlustfreie Kompression betrifft: Sie ersetzt in der Datei vorkommende Pixel gleicher Farbe durch den entsprechenden Hinweis, wie oft die Farbe an der entsprechenden Stelle wiederholt wird. Also statt „weiß, weiß, weiß, weiß, weiß, weiß, weiß“ steht dort nur „7 mal weiß“, etc. Man kann sich vorstellen, dass sich bei Fotos mit vielen unterschiedlichen Farben auf diese Weise nicht viel komprimieren lässt. Lediglich ziemlich glatte Flächen (z. B. Himmel) haben großes Potential, was diese Komprimierungsmethode betrifft.

Ebenfalls zur verlustfreien Komprimierung gehören technische Verfahren, die man z. B. von Zip-Dateien kennt: Wenn beispielsweise Programme oder Texte gepackt werden sollen, dann müssen nach dem Dekomprimieren ja auch alle Bytes wieder ganz genau so erscheinen, wie sie vorher waren.

Allrounder mit leichten Schwächen: Das Jpg-Format

Doch nun zu den verlustbehafteten Kompressionsverfahren, deren berühmtester Vertreter das Jpg-Format ist: Hier kommt es nicht darauf an, dass die Information nach dem Packen und Wiederauspacken haargenau gleich ist. Das komprimierte Bild sollte dem Original möglichst ähnlich sehen. Es ist immer ein Kompromiss aus möglichst geringer Datenmenge und möglichst wenig Verlusten im Bild. Im Prinzip macht das Jpg-Format mit Bildaten das Gleiche, was Mp3 mit Musikdaten macht. Der Ersteller kann wählen, ob er lieber eine besonders starke Kompression mit geringerer Qualität (also stärkeren Abweichungen zum Original) haben möchte, oder ob er größere Dateien akzeptiert, die dafür näher am Original sind – also von besserer Qualität.

Je nach Programm oder Gerät lässt sich die Jpg-Komprimierung mehr oder weniger genau einstellen. Meine frühere Ricoh-Kompaktkamera bot in der 7-Megapixel-Einstellung nur „Fein“ bzw. „Normal“ an. In dem Programm „Digital Photo Professional“, das bei den digitalen Canon-EOS-Spiegelreflexkameras dabei ist, besteht die Möglichkeit, die Bildqualität der erzeugten Jpg-Dateien in 10 Stufen zu wählen, wobei 1 die höchste Komprimierung darstellt und damit die schlechteste Bildqualität. Auf Stufe 10 ist die Jpg-Datei fast genauso groß wie das Original, dafür ist aber auch die Qualität sehr hoch.

Mein Bildbearbeitungsprogramm PhotoImpact 12 bietet sogar die Möglichkeit, die Jpg-Komprimierung in Prozentschritten einzustellen. So kann man gezielt auf eine bestimmte Dateigröße hin komprimieren, da der benötigte Speicherplatz der Jpg-Datei schon beim Verstellen des Prozentreglers direkt angezeigt wird.

Verschiedene Kompressionwerte bei Jpg-SpeicherungDie hier gezeigte Bilddatei vom Rathaus in Stralsund habe ich in Streifen zersägt und diese jeweils mit dem darunter angegebenen Prozentwert abgespeichert. Wie man sieht, sind die niedrigen Prozentwerte kaum zu gebrauchen. Aber ab ca. 60 Prozent erzielt das Jpg-Format hier gute Ergebnisse. Viele Bilder meiner Homepages speichere ich daher mit 80 Prozent ab. Nur wenn dort sogenannte „Jpg-Artefakte“ noch störend ins Auge fallen, gehe ich auf 85 oder 90 Prozent. Diese Artefakte fallen besonders an Stellen mit hohen Kontrasten auf – hier beispielsweise am Übergang zwischen den Giebeln und dem Himmel.

Jpg 1mal gespeichert
Jpg 1mal gespeichert

Wichtig ist, im Sinn zu behalten, dass die Jpg-Kompression ein verlustbehaftetes Verfahren ist, auch wenn man eine relativ hohe Qualitätsstufe gewählt hat. Mit jedem erneuten Speichern vermindert sich die Qualität etwas mehr. Um dies zu verdeutlichen, habe ich das obere Stralsund-Foto mit 80% als Jpg gespeichert, dieses Jpg geschlossen und neu geladen und dann wieder mit 80% gespeichert. Hier sieht man die Datei nach dem ersten Speichervorgang und im nächsten Absatz nach dem zehnten.

Jpg 10mal gespeichert
Jpg 10mal gespeichert

Deutlich erkennbar (nach Großklicken) sind die Artefakte rund um die Giebel und Dachreiter, ebenso am Copyright-Schriftzug. Auch das Mauerwerk sieht nun nicht mehr nach Weltkulturerbe aus und selbst der Himmel, der durch die Fensteröffnungen durchscheint, wurde von der Jpg-Kodierung zerbröselt. Daher sollte man darauf achten, Jpg-Dateien nicht unnötig häufig zu speichern. Es ist ähnlich wie beim Wäschewaschen: Wer meint, es sei eine gute Idee, seine neuen Klamotten gleich 100mal zu waschen, wird damit nur die Nähte und das Gewebe unnötig strapazieren. Ob er die verschlissenen Stellen dann auch hochtrabend „Artefakte“ nennt? :-)

So gut wie alle Digitalkameras bieten das Speichern als Jpg an, da dieses Dateiformat aufgrund seiner Vorteile – gute Bildqualität und wirkungsvolle Kompression – der Quasi-Standard  für Fotos geworden ist. Zwar gibt es auch Weiterentwicklungen wie das verlustbehaftete JPEG 2000 oder das verlustfrei komprimierende PNG, aber diese haben sich bisher nicht wirklich durchgesetzt. Jpg ist der derzeitige Standard sowohl bei Digitalkameras als auch bei Fotos im Internet.

Tiff und Raw – farbtief und verlustfrei

Wie die Lektion über Farbtiefe gezeigt hat, gibt es durchaus Gründe für „mehr als Echtfarben“, also für eine größere Farbtiefe, als Jpg-Dateien mit ihren 24 Bit bieten können. Dies ist das Spezialgebiet der Formate Tiff und Raw, die außerdem – sofern sie überhaupt komprimiert sind – verlustfrei komprimieren.

Raw-Dateien werden von der Kamera erzeugt und sind daher auch je nach Kamera-Modell unterschiedlich. Es ist das Rohdatenformat – die Raw-Datei enthält also quasi das, was der Sensor bei der Aufnahme „gesehen“ hat – angeblich unbeeinflusst von den Einstellungen der Kamera-Elektronik. Solche Einstellungen – beispielsweise Weißabgleich oder Nachschärfung – lassen sich am PC per Software ebenso steuern, als wenn man dies vor der Aufnahme bereits kamera-intern entsprechend eingestellt hätte.

Für den Fotografen hat die Verwendung des Raw-Formats den Vorteil, dass er sich um gewisse Einstellungen erst zuhause zu kümmern braucht und es daher seltener zu Bildern mit vermurksten Einstellungen kommt. Und weil Raw-Dateien eine deutlich größere Farbtiefe haben als Jpg-Dateien, bieten sie auch Vorteile, wenn es um die nachträgliche Korrektur von Über- bzw. Unterbelichtungen geht.

Mit dem jeweiligen Kamera-Modell wird (zumindest bei Canon) ein Programm mitgeliefert, das die entsprechenden Raw-Dateien bearbeiten und in ein anderes Format übersetzen (konvertieren) kann. Beispielsweise das oben schon erwähnte Programm „Digital Photo Professional“, oft auch einfach DPP genannt. Nach eventueller Korrektur von Belichtung, Weißabgleich, etc. kann man mit diesen Programmen aus der Raw-Datei eine Jpg-Datei oder eine Tiff-Datei machen. Wie so etwas in der Praxis funktioniert, erkläre ich im Bereich Bildbearbeitung.

Bei Tiff-Dateien unterscheiden diese Programme gewöhnlich, ob diese als 8-Bit- oder als 16-Bit-Tiff gespeichert werden soll. Wie auf der Farbtiefen-Seite erklärt wurde, bezieht sich dies auf die Bits pro RGB-Farbkanal, also sind es entweder 24 oder 48 Bit pro Bildpixel. Möchte man die größere Farbtiefe der Raw-Datei auch bei der späteren Nachbearbeitung in Photoshop, PhotoImpact, Gimp, oder einem anderen Bildbearbeitungsprogramm zur Verfügung haben, so muss man natürlich als 16-Bit-Tiff speichern, denn sonst geht der erhöhte Tonwertumfang beim Konvertieren verloren. Zwischen einer 8-Bit-Tiff-Datei und einer in hoher Qualität abgespeicherten Jpg-Datei, die ja auch 8 Bit pro Farbkanal hat, wird man somit kaum einen Unterschied ausmachen können. Allerdings ist bei Fotos die Tiff-Datei wesentlich größer, weil sie ja verlustfrei komprimiert (sofern überhaupt eine Komprimierung unterstützt wird – bei Tiff ist fast alles möglich).

Noch eine kleine Anmerkung zu den Dateinamen: Tiff-Dateien erkennt man an ihrer Endung .tif oder seltener auch .tiff. Weil Jpg-Dateien ihren „großen Brüdern“ in nichts nachstehen möchten, gibt’s bei ihnen auch (mindestens) zwei Endungen: .jpg oder seltener .jpeg.

Bei Raw-Dateien ist es allerdings komplizierter: So wie sich die Sensoren der verschiedenen Hersteller und Modelle unterscheiden, so unterscheiden sich auch die Raw-Dateien vom Aufbau und von den Datei-Endungen. Bei Canon ist .crw und .cr2 gebräuchlich, Nikon verwendet .nef, und auch recht seltsame Abkürzungen wie .orf (‚Olympus Raw Format‘, nicht ‚Österreichischer Rundfunk‘) oder .raf (‚Fuji Raw‘, nicht ‚Royal Air Force‘ oder gar ‚Rote Armee Fraktion‘) tauchen auf. Adobe hat versucht, dem Formate-Wirrwarr durch das .dng-Format (‚Digital Negative‘) entgegenzutreten. Aber wie es ausschaut, wollen sich die meisten Hersteller nicht in die Karten schauen lassen und kochen lieber ihr eigenes Süppchen.

Ob man die verschiedenen heutigen Raw-Dateien in 30 oder 100 Jahren noch mit der dann gebräuchlichen Software öffnen kann, ist eine andere Frage, die aber nicht unwichtig ist. Zur dauerhaften Archivierung speichere ich daher zusätzlich zur jeweiligen CR2-Datei auch das passende JPG mit, denn aufgrund der höheren Verbreitung von Jpg-Dateien werde ich diese wohl hoffentlich auch im Rentenalter noch öffnen können, wenn ich nachfolgende Generationen mit langweiligen digitalen Diashows quälen möchte. Ein weiteres Problem wird sein, die Daten dann auch jeweils rechtzeitig auf aktuelle Datenträger umzukopieren, bevor sie unlesbar werden. Mein Rechner jedenfalls kann weder Lochkarten noch Disketten lesen. Und die ersten CD-Roms aus der Brenner-Steinzeit sind auch längst nicht mehr lesbar. Von daher ist das Dia bzw. Papierfoto vielleicht doch die beste Archivierung. Aber das ist ein anderes Thema. Hier soll es in der nächsten Lektion lieber etwas genauer um Tonwertkorrektur und das Arbeiten mit Histogrammen gehen, was ja schon kurz in der Lektion Farbtiefe angeschnitten wurde (und auch auf der Seite Schwarzweiß (Raw) im Bereich Bildbearbeitung).

Kategorien
Aufbaukurs Fotografie Fotokurs

Aufbaukurs, Lektion 3

Alles so schön bunt hier: Die Farbtiefe

Die vorigen beiden Lektionen hatten gezeigt, dass die (technische) Qualität eines digitalen Fotos zunächst einmal von der Pixelzahl und indirekt auch von der Sensorgröße abhängig ist. Aber auch die Anzahl der Farben, die jedem einzelnen Pixel zur Verfügung stehen, bestimmt die Güte einer Bilddatei – und damit auch ihre Größe. Darum geht es auf dieser Seite.

Ein kleiner geschichtlicher Rückblick

Farbtiefe 1 Bit (S/W), Maria Laach
S/W, 1 Bit

Die ersten gebräuchlichen Monitore in der „Steinzeit“ der PC-Geschichte stellten jeden Bildpunkt in genau zwei Farben dar: Entweder war der Punkt an oder aus. Je nach Bildschirmmodell sah man gewöhnlich grüne oder „bernsteinfarbene“ Buchstaben auf schwarzem Grund. Wenn der Monitor mal ausnahmsweise nicht im Text-Modus war, wo er nur Buchstaben ausgeben durfte, dann hatten auch die damaligen Grafiken nur diese zwei Zustände. Für jedes Pixel brauchte man also 1 Bit, das entweder auf 1 oder auf 0 – auf an oder auf aus – geschaltet war. Wollte man eine Grafik mit Schattierungen (Graustufen) ausgeben, dann wurden die grauen Bereiche aus einem Raster von schwarzen und weißen Pixeln gemixt – so ähnlich wie sich das Bildbeispiel rechts nach Anklicken präsentiert. Für die Wiedergabe und Bearbeitung von Fotos war das wirklich noch nichts.

4 Farben (CGA), 2 Bit, Sokoban
4 Farben (CGA), 2 Bit

Als dann die ersten farbfähigen Computersysteme auftauchten, konnte der Rechner nur aus einer Palette weniger Farben auswählen. Links ein Bildschirmfoto eines CGA-Monitors. Man sieht eine Szene aus dem legendären Spiel Soko-Ban von 1984, und deutlich ist zu erkennen, dass die Grafik außer aus den „Farben“ Schwarz und Weiß nur noch zwei zusätzliche Farben hat: Magenta („Telekom-Lila“) und Cyan (Hellblau).

Pixel-Grafik 2 BitUm ein solches Bild zu speichern, benötigt es 2 Bit pro Pixel – mit den Kombinationen 00, 01, 10 und 11 lassen sich vier verschiedene Zustände beschreiben. Zusätzlich muss in der entsprechenden Grafik-Datei natürlich noch hinterlegt sein, welche Kombination für welche Farbe steht, also beispielsweise 00 für Schwarz, 11 für Weiß, 01 für Cyan und 10 für Magenta. Denn eine andere Grafik verwendet vielleicht statt Lila und Hellblau lieber Grün und Gelb. Aber die gewünschte Farbpalette muss nur einmal in der Datei hinterlegt sein – für das jeweilige Pixel reicht dann die entsprechende Farbnummer.

Farbtiefe 2 Bit (4 Farben), Maria Laach
4 Farben, 2 Bit

Das gleiche Kirchenbild als Schwarzweiß-Foto mit nur 4 Graustufen zeigt die Abbildung rechts. Außer einem Beinahe-Schwarz und einem Fast-Weiß gibt es bei der hier verwendeten Farbpalette noch zwei mittlere Grautöne. Statt Grauwerten hätte man natürlich auch Farben nehmen können – aber damit sah es noch schlimmer aus…

Mit fortschreitender Technik war es dann auch bald möglich, 3 Bit pro Pixel zur Verfügung zu stellen. Und schon konnte man mit den Zuständen 000, 001, 010, 011, 100, 101, 110 und 111 insgesamt 8 verschiedene Farben ansteuern – noch immer aus einer Palette, die der Grafikkarte vorher mitgeteilt werden musste, sofern die Grafikkarte nicht mit einer fest einprogrammierten Palette arbeitete, so dass man nur aus vorgegebenen Farben auswählen konnte.

Bitte 1 Bit – oder bringense gleich 8 Bit

Wer sich in Mathematik ein bisschen auskennt, erkennt in diesem System das sogenannte Binärsystem oder Dualsystem. Jede Zahlenstelle kann nur 2 Zustände annehmen: 0 oder 1. Mit 2 Stellen kann ich demnach – wie oben gezeigt – doppelt so viele Zustände beschreiben, nämlich 4 (von 0 bis 3). Mit jeder weiteren Stelle verdoppelt sich die Anzahl der Möglichkeiten:

  • 1 Bit: 2 Farben
  • 2 Bit: 4 Farben
  • 3 Bit: 8 Farben
  • 4 Bit: 16 Farben
  • 5 Bit: 32 Farben
  • 6 Bit: 64 Farben
  • 7 Bit: 128 Farben
  • 8 Bit: 256 Farben
  • 9 Bit: 512 Farben
  • 10 Bit: 1024 Farben
  • 11 Bit: 2048 Farben
  • 12 Bit: 4096 Farben
  • 13 Bit: 8192 Farben
  • 14 Bit: 16384 Farben
  • 15 Bit: 32768 Farben
  • 16 Bit: 65536 Farben
4 Bit (16 Farben), Maria Laach
16 Farben, 4 Bit

Mit 4 Bit, also 16 Farben, und einer auf das jeweilige Foto optimierten Palette, lassen sich schon erste farbfotoähnliche Darstellungen ermöglichen. Nach Größerklicken des Fotos sieht man aber deutliche Einschränkungen: Auch hier fällt gerade auf größeren Flächen auf, dass die Farben gerastert sind. Dieses Verfahren wird auch Dithering genannt.

Palette 16 Farben (4 Bit)Schaut man sich die Farbpalette des jeweiligen Bildes in einem Bildbearbeitungsprogramm an, dann sieht man, aus welchen 16 Farben das Bild zusammengesetzt ist. Die Plätze in der Palette sind mit Indexnummern durchnummeriert – bei einer 4-Bit-Grafik also von 0 bis 15. Für das Rot der Blüten stehen hier nur 2 Farbtöne zur Verfügung, die Palettenplätze 14 und 15. Die Nonnen der Klosterkirche Maria Laach wollen jedoch davon nichts wissen und wenden sich daher desinteressiert ab.

Farbtiefe 4 Bit (16 Farben) ohne DitheringZum Vergleich links noch ein 16-Farben-Bild, diesmal aber ohne Dithering. Man sieht, dass es deutlich stufiger wirkt. Das Dithering simuliert quasi eine größere Farbtiefe.

8 Bit (256 Farben), Maria Laach
256 Farben, 8 Bit

Mit 256 Farben sieht das Foto schon realistischer aus. Aber von einer Echtfarben-Darstellung ist es noch weit entfernt. Zwar wirken die meisten Flächen jetzt nicht mehr grob gerastert, aber z.B. der Rock der mittleren Nonne ist doch noch ziemlich stark gedithert. Offenbar benötigt das Foto doch noch weitaus mehr Farbtöne.

Palette 256 Farben (8 Bit)Der Blick auf die für dieses Foto optimierte 8-Bit-Farbpalette zeigt nun Indexnummern von 0 bis 255.

Bei dieser Farbtiefe von 256 Farben bzw. 8 Bit ist übrigens die Grenze dessen erreicht, was das Gif-Dateiformat speichern kann. Das ist der Grund, warum man Fotos besser als Jpg oder Tiff (oder einem anderen geeigneten Format) speichert. Würde man seine Fotos als Gif-Dateien speichern, dann würden sie auf maximal 256 Farben reduziert und es käme zu gravierenden Qualitätsverlusten.

Wer sich nun fragt, wofür es das Gif-Format denn dann überhaupt gibt und gerade im Internet viel verwendet wird: Es hat Vorteile bei Zeichnungen, Logos, etc. (die ja gewöhnlich nur aus wenigen Farben bestehen). Beispielsweise kann man eine der Farben als transparent erklären, so dass an diesen Stellen der Hintergrund der Website durchschimmert. Dazu später vielleicht mehr.

8 Bit S/W (256 Graustufen), Maria Laach
256 Graustufen, 8 Bit

Interessanterweise reicht eine Palette von 256 Tönen für die Graustufen-Darstellung von Schwarz-Weiß-Fotos aus. Mehr ist hier auch heute nicht üblich, wenn SW-Bilder im Internet angezeigt werden.

Bei der Bearbeitung von SW-Fotos mag es dennoch von Vorteil sein, eine höhere Farbtiefe nutzen zu können. Auch dazu später mehr.

Graustufen-Palette, 8 BitDer Blick auf die „Farbtabelle“ eines Graustufenbildes ist zunächst mal sehr „eintönig“. Bei jedem SW-Foto sieht sie gleich aus und enthält die gleichen Abstufungen von 0 (schwarz) bis 255 (weiß) – auch wenn evtl. gar nicht alle Grautöne in dem Foto genutzt werden, weil es weniger Graustufen benötigt.

Wenn man sich das Palettenfenster genauer anschaut, dann sieht man dort, dass der Wert für die Indexfarbe 255 (weiß) aus 3 Werten R, G und B besteht, die in diesem Falle auch jeweils den Wert 255 angenommen haben, während sie bei den farbigen Paletten jeweils unterschiedliche Werte für die angezeigte Farbe (die mit dem höchsten Index) haben. Was hat es damit auf sich?

Die Buchstaben R, G und B stehen für die 3 Grundfarben Rot, Grün und Blau, aus denen jeder Monitor die Farben mischt. Haben sie alle drei den höchsten Wert (255), dann entsteht strahlendes Weiß. Stehen alle drei auf einem mittleren Wert (z. B. 127), dann ergibt dies einen Grauton aus der Mitte der Graustufen-Palette. Und wenn alle drei Werte 0 betragen, dann bleibt das jeweilige Pixel schwarz.

Und wenn die Werte für R, G und B unterschiedlich sind, dann handelt es sich nicht um ein Graustufenbild, sondern um ein Farbbild. Womit wir wieder beim Thema wären.

Beispielsweise hat das letzte Kästchen der oben gezeigten 256-Farben-Palette die RGB-Werte 179,41,33. Man sieht schon mit einem Blick auf die Zahlen, dass der Rot-Anteil der höchste ist, dass es also ein gedeckter Rotton sein wird. Das ist im Prinzip das RGB-Farbmodell in seinen Grundzügen.

Her mit den Echtfarben! Weg mit der Palette!

24 Bit (True Color), Maria Laach
True Color (24 Bit)

Das Graustufen-Beispiel oben hat ja gezeigt, dass 256 Helligkeitsunterschiede ja schon einen ziemlich gleichmäßigen Eindruck hinterlassen und man im Normalfall keine Stufen mehr erkennt. Wenn man nun für jede der Grundfarben Rot, Grün und Blau 256 Werte verwendet, dann kann man damit Fotos hinreichend gut darstellen, ohne eine spezielle Palette zu benötigen.

Solche Bilder werden gewöhnlich als Jpg-Dateien gespeichert. Eine Jpg-Datei hat also für jede der RGB-Grundfarben jeweils 256 Abstufungs-Möglichkeiten, so dass sich eine Kombinationsmöglichkeit von 256 mal 256 mal 256 Farben ergibt, also 16.777.216 Farben.

Ein solches Bild braucht also pro Grundfarbe 8 Bit, was ingesamt 24 Bit ergibt.

Jeder Jpg-Datei stehen die gleichen 16,7 Millionen Farben zur Verfügung, es gibt also keine individuell für das jeweilige Foto optimierte Palette mehr.

Zunächst einmal erscheint die Zahl von 16,7 Millionen Farben riesig. Das menschliche Auge ist nicht in der Lage, so viele Farben zu unterscheiden. Dennoch sollte man schon jetzt im Sinn behalten, dass es „nur“ 256 Abstufungen pro Grundfarbe sind. Unter gewissen Bedingungen kann auch dies für eine stufenfrei aussehende Darstellung zu wenig sein.

Auch gibt es Farben, die nicht in diesen 16,7 Millionen RGB-Farben zu finden sind, die das menschliche Auge aber dennoch wahrnehmen kann. Wer sich näher für die doch recht komplizierte Materie interessiert, dem empfehle ich als Einstieg folgende Wikipedia-Artikel: RGB-Farbraum, FarbraumsRGB, Adobe RGB.

Wozu noch mehr Farbtiefe?

An dieser Stelle wird es Zeit für eine kleine „Zwischenprüfung“:

  • Welches Foto hat mehr Farben (also eine größere Farbtiefe): eine 16-Bit-Tiff-Datei oder eine 24-Bit-Jpg-Datei?

Nach dem bisher gelernten könnte man annehmen, dass es die Jpg-Datei wäre, denn bisher galt ja: „Mehr Bits, mehr Farben“. Aber natürlich war es eine fiese Fangfrage, denn aus mir unbekannten Gründen haben einige Leute bei Dateien mit größerer Farbtiefe auf einmal angefangen, die Farbtiefe pro RGB-Farbkanal anzugeben anstatt die des gesamten Bildes. Die 16-Bit-Tiff-Datei hat daher in Wirklichkeit 48 Bit und hat somit 65536 Abstufungen pro RGB-Farbkanal (statt 256 beim Jpg). 48 Bit ergibt rechnerisch unvorstellbare 281.474.976.710.656 Farbmöglichkeiten (281 Billionen, nämlich 655363 oder 248).

Um zu verstehen, wozu man „mehr als Echtfarben“ braucht, ist es ganz sinnvoll, uns kurz mit der sogenannten Histogramm-Anzeige zu beschäftigen, die auf manchen Digitalkamera-Displays und in den meisten Bildbearbeitungs-Programmen zu finden ist. Die folgenden Abbildungen zeigen die beiden Histogramme der oben gezeigten Kirchenbilder mit 4 bzw. 16 Farben:

Histogramme, 4 und 16 FarbwerteEin solches Histogramm zeigt die Helligkeitsverteilung innerhalb des Fotos an. Der Graukeil am Fuß der Grafik macht deutlich, dass die dunklen Farbtöne (oder Graustufen) links stehen, während hellere Farbtöne weiter rechts eingetragen sind. Je länger der Balken ist, desto häufiger kommt der entsprechende Farbton in dem Foto vor. Der häufigste Farbton hat den Balken bis ganz oben, während die anderen Farbtöne durch entsprechend kürzere Balken dargestellt werden.

Deutlich kann man an der linken Grafik erkennen, dass das 2-Bit-Foto tatsächlich nur 4 Farbtöne aufweist. Und wer sich die Mühe macht, die Striche in der rechten Grafik zu zählen, stellt fest, dass es genau 16 sind, was ja bei dem 4-Bit-Foto auch zu erwarten war. Bei Echtfarben-Fotos sieht man im Gegensatz hierzu gewöhnlich ganze „Gebirge“ im Histogramm und nicht nur einzelne Striche.

Auch fällt bei den beiden Histogrammen auf, dass richtiges Schwarz und reines Weiß gar nicht Bestandteil der im Bild genutzten Farben sind, da ganz links bzw. ganz rechts kein Balken zu sehen ist. Beim 4-Farben-Bild ist übrigens der dunkelste Farbton am häufigsten anzutreffen, während es beim 16-Farben-Bild des gleichen Motivs der hellste Farbton ist.

Die Lücken zwischen den Balken sind also Farbtöne bzw. Helligkeitsstufen, die von dem jeweiligen Bild nicht genutzt werden. Wegen dieser Lücken sieht man im Foto deutliche Stufen oder Kanten bei Flächen, die eigentlich einen gleichmäßigeren Verlauf ohne erkennbare Stufen zeigen müssten – oder das Grafikprogramm kaschiert diese Schönheitsfehler durch entsprechendes Dithering.

Wenden wir uns nun einem anderen Beispielfoto zu. Am Tag des Abschieds der Kölner Achtachser-Straßenbahnen machte ich dieses Foto einer solchen Bahn vor dem Kölner Dom. Leider war das Wetter zu diesem Zeitpunkt regnerisch-trübe, aber an „historischen Daten“ kann man sich das Wetter bekanntlich nicht aussuchen und muss versuchen, auch fotografisch das Beste daraus zu machen.

Ein Blick auf das Histogramm zeigt auch schon das Haupt-Problem dieser Grafik: Der mögliche Tonwertumfang wird überhaupt nicht komplett ausgenutzt. Es sind keine dunklen Töne in dem Bild enthalten, und dementsprechend hat es deutlich zu wenig Kontrast.

Es muss also eine Tonwertkorrektur vorgenommen werden – in diesem Falle eine Tonwertspreizung, so dass das dunkle Gestein, aus dem der Dom besteht, auch dunkler abgebildet wird, während die helleren Passagen nicht abgedunkelt werden. Auf diese Weise wird das Foto kontrastreicher.

Das Ergebnis nach automatischer Tonwertkorrektur in PhotoImpact zeigt die zweite Version dieses Fotos. Man kann dies auch manuell vornehmen, aber in diesem Fall brachte die Automatik schon ein ganz passables Ergebnis.

Ein Blick auf das neue Histogramm offenbart aber Folgendes: Das Bild hat nun nicht mehr einen gleichmäßigen Helligkeitsverlauf, sondern in dem Histogramm-„Gebirge“ tun sich nun jede Menge Spalten auf. Es sieht fast aus wie ein Kamm. Damit man es gut erkennen kann, zeige ich es hier gleich in Originalgröße.

Um sich zu erklären, was da passiert ist, stellen wir uns vereinfachend vor, das Bild wäre ein Graustufenbild gewesen und hätte somit nur 256 verschiedene Helligkeitswert-Möglichkeiten. Durch das diesige Wetter wurde das Foto aber sehr kontrastarm, so dass von den 256 Helligkeitswerten z. B. nur 150 genutzt wurden. Die 100 dunkelsten Töne kommen in dem Bild gar nicht vor.

Wenn nun die verbleibenden Tonwerte durch eine Tonwertkorrektur auf die gesamte Breite des Histogramms gespreizt werden, dann sind es ja nach wie vor nur 150 Werte, die aber auf 250 Plätze verteilt werden müssen. Einleuchtend, dass da etwa 100 Plätze frei bleiben. Im Gegensatz zur Straßenbahn übrigens, wo 150 Fahrgäste durch Füße auf dem Sitz und Ablegen von Taschen, etc. locker 250 Plätze belegen können. ;-)

Die Lücken im Histogramm bergen nun aber wieder die Gefahr, dass man statt gleichmäßigen Helligkeitsverläufen doch wieder Stufen sieht – ähnlich wie bei den gezeigten Bildern mit reduzierter Farbtiefe, wenn auch nicht so krass.

Bei dem Beispiel-Bild hier in Monitor-Auflösung sieht man es zwar nicht, aber insbesondere bei größeren Ausdrucken fällt es mitunter deutlich auf. Für die weitere Bildbearbeitung ist es daher gut, wenn das Ausgangsmaterial möglichst mehr als 256 Abstufungen pro Farbkanal hat. So bleiben auch nach Maßnahmen wie Tonwertspreizung noch genügend Werte übrig, um ein lückenfreies Histogramm mit feinen Farbverläufen zu erzeugen. Dies ist bei 48-Bit-Tiff-Dateien der Fall („16-Bit-Tiff“), aber auch bei Raw-Bildern, die pro Farbkanal gewöhnlich 12 oder 14 Bit haben, also 16fach bzw. 64fach mehr als ein Jpg mit seinen 8 Bit. Einer der Haupt-Gründe, warum es sich lohnt, in Raw zu fotografieren.

Damit kündigt sich auch schon das nächste Thema im Aufbaukurs an. In der nächsten Lektion geht es um das Thema Dateiformate. Also ein paar Infos zu Gif, Jpg, Raw und Tiff – um nur mal die wichtigsten zu nennen.

Um den Effekt aber vielleicht doch bei den Verkleinerungen am Bildschirm deutlich erkennbar machen zu können, habe ich das Bild rechts vorbereitet. Der sattblaue „Polfilter-Himmel“ ist ein typisches Motiv, bei dem man manchmal Stufen im Verlauf erkennen kann. Durch das Bildrauschen sieht man allerdings keine glatten Kanten zwischen den Farbton-Abstufungen, sondern – ähnlich wie beim Dithering – werden die Stufen hier ein wenig kaschiert. Daher habe ich links neben das Foto noch einen künstlich erzeugten Farbverlauf mit den gleichen Blautönen gestellt, der natürlich kein Bildrauschen hat. Hier fällt die Streifenbildung vermutlich am ehesten auf – auf meinem Monitor sieht man es jedenfalls. Ansonsten könnt Ihr Euch das Bild ja auch abspeichern und dann mit dem Bildbearbeitungsprogramm eine Tonwertspreizung (Kontrast-Anhebung) machen, bis der Effekt sichtbar wird.

RGB in freier Natur: RingCon 2008

Kategorien
Aufbaukurs Fotografie Fotokurs

Aufbaukurs, Lektion 2

Darf’s ein bisschen mehr sein: 6 Millionen Megapixel

Zur Einleitung gibts diesmal keinen Spargel, sondern eine wahre Geschichte: Am Silvesterabend 2006 waren wir indisch essen (lecker…). Im Restaurant kamen wir mit einem netten Jungen vom Nachbartisch ins Gespräch, weil er die Gruppe dort mit einer Digitalkamera fotografierte. Wir erfuhren, dass er Robin heißt, 9 Jahre alt ist, und seine eigene Digitalkamera habe „6 Millionen Megapixel“!

Nun, Robin ist ein cleverer Junge und kennt sich z.B. mit Astronomie sehr gut aus. Aber bei den Megapixeln ist er ein wenig durcheinandergekommen. Macht aber nix, denn das geht selbst Profis in dem Geschäft manchmal noch so, wie ich im übernächsten Abschnitt zeigen werde. Deshalb erkläre ich hier mal für alle die Sache mit den Pixeln und Megapixeln. Und dazu noch das mit den Sensorgrößen.

Kilo- Mega- Gigapixel

Die Umrechnerei mit „Kilo“ gibt es ja in vielen Bereichen des täglichen Lebens. Der Weg zur Arbeit betägt beispielsweise 8 Kilometer. Wer sagt da schon 8000 Meter? Oder die 500 Gramm Mehl werden auch als 1/2 Kilogramm bezeichnet. Soweit, so einfach. Aber mit den Megas und Gigas tun wir uns manchmal ein bisschen schwerer. Man braucht sie halt nicht so oft. Kaum ein Mensch sagt beispielsweise, die Fahrt in den Urlaub sei 1 Megameter lang gewesen. Unter „1000 Kilometer“ kann man sich viel leichter was vorstellen (nämlich Kreuzschmerzen, quengelnde Kinder auf dem Rücksitz, horrende Benzinrechnungen, massig tote Fliegen auf der Windschutzscheibe, etc.). :-)

Die Umrechnung von Längen-Einheiten funktioniert genauso wie bei den Pixeln:

  • 1000 Pixel sind 1 Kilopixel.
  • 1000 Kilopixel sind 1 Megapixel oder 1 Million Pixel.
  • Und 1000 Megapixel sind 1 Gigapixel.
  • 1000 Gigapixel ergeben ein Terapixel.

Der Begriff „Kilopixel“ hat sich jedoch nicht durchgesetzt. Statt 300 Kilopixel sagt man lieber 0,3 Megapixel – dies ist z.B. die typische „VGA-Auflösung“ von 640×480 Bildpunkten. Und mit Gigapixeln oder gar Terapixeln braucht man als Digitalfotograf gewöhnlich auch nicht rechnen (wenn man mal von diversen Gigapixel-Panoramen absieht, wie z.B. hier von diesem: www.koeln.de/gigapixel). Wer also nicht gerade solche zusammengesetzten Riesenpanoramen erstellt oder bei Google Earth bzw. Streetview arbeitet, kommt mit Giga- bzw. Terapixeln kaum in Berührung. Für den Hausgebrauch reichen die Megapixel völlig aus.

Doch zurück zu Robins Kamera. Hätte sie wirklich „6 Millionen Megapixel“, dann wären dies ja 6000 Gigapixel bzw. 6 Terapixel. Er meinte jedoch die bei Digitalkameras teilweise noch üblichen 6 Megapixel. Ein Foto mit ca. 3000 mal 2000 Pixeln ist ein 6-Megapixel-Bild. 6 Terapixel wären demnach 3 Millionen mal 2 Millionen Bildpunkte, also 6 Billionen Pixel. Welche Speicherkarte soll so eine Datei nur fassen können?

Auch wenn derzeit meist noch mit möglichst hohen Megapixel-Zahlen geworben wird, setzt sich langsam aber sicher die Erkenntnis durch, dass die Bildpunktezahl nicht das Entscheidende ist. Eine 6 Megapixel-Kamera macht unter Umständen bessere Fotos als eine 10 Megapixel-Kamera. Warum das so ist, erläutere ich später.

Saublöd und saubillig

ZeitungsprospektEine Umkehr des Trends zu immer mehr Megapixeln zeigte sich übrigens im Dezember 2006 in einem Zeitungsprospekt. Dort verkaufte der Ich-bin-doch-nicht-blöd-Markt die rechts abgebildete Kamera mit der traumhaften Auflösung von 6,1 Pixel! :-) Einmal abgesehen davon, dass es Zehntelpixel nicht gibt, hat ein Sensor mit 3 mal 2 Bildpunkten natürlich den Vorteil, dass seeeehr viele Bilder auf die Speicherkarte passen. Dem Fotografen verlangt allerdings die Beschränkung auf 3×2 Pixel einiges an Abstraktionsvermögen ab. Hier mal einige Beispiele von (20fach vergrößert dargestellten) Bildern in der 0,000006-Megapixel-Klasse:

Abendhimmel über dem Schwarzen Meer.

Nacht über dem Roten Meer.

Türme des Kölner Doms vor blauem Himmel.

Unvergrößert sehen die 6-Pixel-Bilder übrigens so aus:

Vielleicht kann Robin sein überschüssiges „Mega-“ an den „Fach“markt verkaufen (vielleicht für 1 Megaeuro). Dann passen die Bilder von Robins Kamera auch wieder auf normale Speicherkarten. Und der besagte Markt wird seine Kameras vermutlich besser verkaufen können, wenn sie statt 6,1 Pixeln dann mit 6,1 Megapixeln beworben werden könnten. Beiden wäre also geholfen… :-)

Filmformate und Sensorgrößen

Um den Zusammenhang zwischen Megapixelzahl und Bildqualität besser einschätzen zu können, ist ein Blick auf die üblichen Sensorgrößen von Digitalkameras ganz hilfreich. Ich habe dazu einmal die folgende Grafik vorbereitet. Das Bild zeigt einige der üblichen Aufnahmeformate von analogen und digitalen Kameras. Ich habe mich bemüht, es etwa in Originalgröße erscheinen zu lassen, aber je nach Monitorgröße und -einstellung kann es natürlich sein, dass es größer oder kleiner erscheint (siehe vorige Lektion). Im Zweifel einfach mal ein ungerahmtes Dia oder ein Lineal vor den Bildschirm halten, dann sieht man, ob die Größen in etwa stimmen.

Vergleich verschiedener Film- und SensorgrößenDie Grafik zeigt deutlich, dass es sehr große Unterschiede in der Film- bzw. Sensorgröße verschiedener Kameras gibt. Ein genauerer Blick lohnt sich:

Größenvergleich, 6x7 MittelformatDie beiden blauen Rechtecke der obigen Grafik zeigen zwei typische Mittelformat-Fotoformate. Die Negative oder Dias haben eine Größe von ca. 70 x 60 mm oder 60 x 60 mm. In der Digitalfotografie spielen sie nur im „unbezahlbaren“ Profi-Bereich eine Rolle, auf die ich hier nicht näher eingehe.

Der Name „Mittelformat“ zeigt schon an, dass es auch noch größere Aufnahmeformate gibt. Und auch das Mittelformat ist – wie man deutlich erkennen kann – wesentlich größer als das Kleinbildformat, das ja gerne als „Vollformat“ bezeichnet wird.

6×7-Mittelformatfotos auf Rollfilm haben gewöhnlich eine belichtete Fläche von 56 mal 68 Millimetern. Dies ergibt mit 3808 mm2 eine 4,4fach größere Fläche als die 864 mm2 des Kleinbildformats, das als nächstes vorgestellt wird.

Größenvergleich, Kleinbildformat 24x36mmIn obiger Grafik orange dargestellt ist das bekannte Kleinbildformat von 36 x 24 mm. In diesem Format werden Dias oder Negative in den üblichen „analogen“ Spiegelreflexkameras auf Kleinbildfilm belichtet. Daher habe ich das Filmmaterial mit Perforation ebenfalls dargestellt, was einen Größenvergleich erleichtert.

Einige digitale Spiegelreflexkameras haben einen Sensor, der ebenfalls (fast) diese Größe aufweist (z.B. Canon EOS 5D). Diese Kameras haben daher keinen Crop-Faktor (bzw. „Crop-Faktor 1“), denn sie geben das Bild so wieder, wie es auch eine analoge Kamera mit gleicher Brennweite tun würde. Weil der Sensor (annähernd) die gleiche Größe wie das Kleinbildformat hat, wird dieser Sensortyp häufig als „Vollformat-Sensor“ bezeichnet.

Größenvergleich, APS-C-FormatGrößenvergleich, APS-C-FormatWeitaus üblicher bei digitalen Spiegelreflexkameras ist das sogenannte APS-C-Format, in obiger Grafik durch die beiden grünen Kästchen dargestellt. Die beiden Schwanenfotos rechts zeigen, dass zwischen dem echten APS-C Filmformat mit seinen 25,1 mal 16,7 mm und dem etwas kleineren, was in DSLRs eingebaut wird, auch noch ein gewisser Unterschied besteht, obwohl sich beides „APS-C-Format“ nennt.

Das kleinere der beiden Bilder zeigt die Sensorgröße der Canon EOS 20D und 30D, deren Sensoren 22,5 x 15 mm groß sind, was genau rechnerisch einem Cropfaktor von 1,6 entspricht. In den Kameras Canon EOS 350D und EOS 400D ist der Sensor mit 22,2 x 14,8 mm geringfügig kleiner, was aber in der Praxis nicht auffällt, denn der Cropfaktor liegt auch bei 1,6 (rechnerisch 1,62). Für meine neue EOS 60D wird er mit 22,3 x 14,9 angegeben (also auch Crop 1,6). Da die Unterschiede nicht bedeutend sind, werden alle diese Sensorgrößen mit Cropfaktor 1,5 oder 1,6 als „APS-C-Formate“ bezeichnet.

Sensoren dieser Größe haben gegenüber dem „Vollformat“ mehrere Vorteile: Sie sind preiswerter herzustellen. Auch haben sie weniger Probleme mit Vignettierung (Ecken des Fotos erscheinen dunkler), womit das Vollformat manchmal seine Probleme hat. Durch den kleineren Bildkreis, den das Objektiv aufzeichnen muss (kleinere Sensordiagonale), werden bei Vollformat-Objektiven die kritischeren Randbereiche sozusagen ausgelassen. Auch lassen sich dadurch preiswertere Objektive herstellen, die nur für den kleineren Bildkreis von Kameras mit APS-C Sensor gerechnet sind. Und außerdem freuen sich Tele-Fotografen, wenn sie ein 300mm-Objektiv kaufen und der Blick durch den Sucher fast wie bei einem 500mm-Objektiv aussieht.

Größenvergleich, Four ThirdsEin Stück kleiner als in APS-C-Digitalkameras ist der Sensor bei digitalen Spiegelreflexkameras des Four-Thirds-Standards (und auch bei der neuen Entwicklung Micro Four Thirds). Four Thirds wurde von Olympus und Kodak entwickelt, aber auch andere Hersteller bauen Kameras mit dieser Sensorgröße und nach diesem Standard, nämlich derzeit Panasonic und Leica.

Die Diagonale des FourThirds-Sensors ist nur halb so groß wie im ‚Vollformat‘. Dieser Sensortyp hat daher einen Crop-Faktor von 2. Dies ist zwar einfacher zu rechnen (ein 14-45mm Zoom entspricht beispielsweise einem Kleinbildformat-Zoom mit Brennweite 28-90mm). Wer jedoch gerne Objekte mittels geringer Schärfentiefe vor unscharfem Hintergrund ‚freistellt‘, wird den Cropfaktor von 2 allerdings eher als Nachteil sehen, weil die geringeren Brennweiten und die kleinere Sensorfläche eine höhere Schärfentiefe mit sich bringen.

Da die Bauweise von FourThird-Kameras keine Rücksichten auf ältere ‚analoge‘ Objektive, Objektivbajonette, etc. nehmen musste, sondern eine Neuentwicklung für Digitalkameras war, hat dieses Format einige Vorteile gegenüber digitalen Spiegelreflexkameras mit größeren Sensoren. Auch die Verwendbarkeit von FourThirds-Objektiven der verschiedenen Hersteller ist natürlich sehr praktisch.

Bei den bisher betrachteten Sensorgrößen von Vollformat über APS-C bis zu FourThirds werden die Objektive mit ihrer jeweiligen echten Brennweite angegeben, und es wird zum Vergleich mit dem Kleinbildformat ggf. mit einem Cropfaktor gerechnet. Bei den beiden kleinsten Sensoren in obenstehender Grafik verhält es sich jedoch anders:

Größenvergleich, Kompaktkamera-SensorGrößenvergleich, Kompaktkamera-SensorDiese winzigen Flächen zeigen typische Sensorgrößen gängiger Kompakt-Digitalkameras. In der obenstehenden Grafik habe ich diese Sensoren pink bzw. rot eingezeichnet. Sie haben gerade mal ca. 4×6 bzw. 5×7 Millimeter Kantenlänge, und dies ist in fast allen Kompaktkameras, Superzoomkameras, Bridgekameras, etc. der Fall – von Handykameras wollen wir hier gar nicht reden.

Dem einfallenden Licht steht durch den winzigen Sensor auch nur ein Bruchteil der lichtempfindlichen Fläche zur Verfügung, die die größeren Sensoren von Spiegelreflexkameras einfangen können. Umso stärker muss das Sensor-Signal verstärkt werden, was zu erhöhtem Bildrauschen führt. Dies wird noch deutlicher, wenn man mal die Flächen berechnet. Die winzigen Sensoren kommen gerade mal auf ca. 38 mm2 bzw. 25 mm2. Verglichen mit den ca. 330 mm2 des APS-C-Formates sind sie also ca. 9 bis 13fach kleiner.

Wie im vorletzten Absatz schon angedeutet, wird bei den kleinen Sensoren von Kompaktkameras nicht mit echter Brennweite und Crop-Faktor gerechnet, sondern man gibt die auf Kleinbildformat umgerechnete Brennweite des Objektivs an.

Beispielsweise klebte auf meiner früheren Immerdabei-Kompaktknipse Ricoh Caplio R5 ein fetter Aufkleber mit großen Ziffern 28-200. Aber ein näherer Blick auf die klein gedruckten Zahlen am Objektiv verrät, dass es sich in Wirklichkeit um eine Brennweite von 4,6-33mm handelt. Wenn man 28 geteilt durch 4,6 (oder 200 durch 33) rechnet, erhält man den ungefähren Cropfaktor von 6. Nur der Bildwinkel entspricht einem 28-200-Zoom im Kleinbildformat. Was hingegen die Schärfentiefe betrifft, verhält es sich ganz wie ein 4,6-33mm-Zoom, was es ja auch ist. Es ist also schon schwierig, damit das Motiv vor einem möglichst unscharfen Hintergrund freizustellen, da man maximal eine Brennweite von 33mm (und Offenblende 4,8) zur Verfügung hat.

Mini-Megapixel

Größenvergleich, APS-C-FormatGrößenvergleich, Kompaktkamera-SensorInzwischen gibt es auch Kompaktkameras mit 8, 10 oder gar 14 Megapixeln. Ähnlich viele Megapixel haben auch die aktuellen ‚bezahlbaren‘ Spiegelreflexkameras mit APS-C-Sensor. Was kann man daraus über die Bildqualität schließen?

Machen wir eine (grob vereinfachte, aber im Prinzip dennoch zutreffende) Rechnung: Der kleine Sensor der Kompaktkamera hat nur 1/9 der Größe des Spiegelreflex-Sensors, aber gleich viele Bildpunkte. Jedes einzelne Kompaktkamera-Pixel hat somit auch nur ca. 1/9 der Größe seines Kollegen in der Spiegelreflexkamera. Es bekommt daher im Vergleich zu seinem großen Vorbild auch nur ca. 1/9 des Lichts ab. Demnach muss das elektrische Signal, dass das Mini-Sensorelement erzeugt, auch ca. 9fach höher verstärkt werden. Dabei verstärkt sich bekanntlich das Bildrauschen mit. Eine neunfache Verstärkung entspricht aber mehr als 3 Blendenstufen. Schon im ‚Grundzustand‘ mit niedriger ISO-Zahl (z.B. ISO 100) muss die Kompaktkamera das Signal in etwa so verstärken, als wäre ISO 800 eingestellt. Das ist der Grund, warum Bilder einer modernen Kompaktkamera mit hoher Megapixelzahl viel stärker rauschen als Bilder einer Spiegelreflexkamera mit gleich viel Megapixeln.

Natürlich versuchen die Hersteller der ‚Minimegapixler‘, dieses Problem mit allerlei elektronischen Tricks zu kaschieren. Aufwändige Rauschunterdrückungsberechnungen sollen das Rauschen schon in der Kamera auf ein Minimum reduzieren. Dabei verschwinden allerdings auch feine Details aus dem Foto, wenn die Rauschunterdrückung zu aggressiv zu Werke geht.

Ein Ausweg aus dem Dilemma wäre ein Verzicht auf einige Megapixel. Für die meisten Anwendungen, bei denen überhaupt Kompaktkameras in Frage kommen, reichen 4 bis 6 Megapixel locker aus. Auch die Optiken der meisten Kompaktkameras sind mit höheren Auflösungen schon an der Grenze ihrer Leistungsfähigkeit. So verwundert es nicht, dass die Tests vieler Fotozeitschriften immer wieder zum Ergebnis kommen, dass mehr Megapixel meist nicht mehr Bildqualität bringen. So heißt es beispielsweise in ColorFoto 1/2007: „Auffällig: die nominelle Pixelauflösung sagt wenig über die tatsächliche Bildqualität aus. Bei der Bildqualität stehen nicht die drei 10-Megapixel-Kameras vorn, sondern zwei […] Modelle mit 6 Megapixeln.“

Vermutlich wird es aber noch einige Zeit dauern, bis die meisten Verbraucher erkannt haben, dass das Megapixel-Wettrüsten vor allem Marketing-Gründe hat. Eine Kamera nur nach ihren Megapixeln zu beurteilen ist etwa ähnlich sinnlos wie z.B. ein Auto nur nach dem Hubraum zu bewerten. Weitere Infos hierzu gibt es auf der sehr interessanten (wenn auch leider nicht weiter aktualisierten) Website www.6mpixel.org.

Kompaktkamera-Rauschvergleich

Ein Vergleich des Bildrauschens von Kompaktkameras zeigt deutlich, dass mehr Megapixel nicht mehr Bildqualität bedeuten. Die obere Bildreihe zeigt 100%-Ausschnitte der 6-Megapixel-Kamera Ricoh Caplio R4 (300×200 Pixel aus einem Bild von 2816×2112 Pixeln), während die untere Reihe 100%-Ausschnitte von der R5 zeigt, die einen 7-Megapixel-Chip hat (3072×2304 Pixel). Links jeweils die ISO-100-Version, rechts war eine Empfindlichkeit von ISO 400 eingestellt:

Obern Caplio R4, unten R5Zwar war dies kein Test unter Laborbedingungen, sondern nur ein privater Vergleich dessen, was die Automatiken dieser beiden Kameras so draufhaben. Aber bezüglich des Rauschens sieht man deutlich, dass die zusätzlichen Pixel der R5 den Nachteil höheren Bildrauschens mit sich bringen. Die R4 war zu diesem Zeitpunkt preiswerter und macht trotzdem die besseren Fotos. Hätte ich die besseren Video-Qualitäten der R5 damals nicht öfters gebraucht, dann wäre ich bei der R4 geblieben. Zumal die R5 auch sonst ein paar kleinere Macken hatte, die bei der R4 noch nicht vorhanden waren. Ein typischer Fall von „Verschlimmbesserung“. Aber was interessiert heute noch die R4 oder R5? Zur Photokina 2008 ist Ricoh bei der R10 angelangt, leider mit 10 Megapixeln. Hätte sie 6 Megapixel, würde ich sie vielleicht kaufen. Leider bekommt man 6-Megapixel-Sensoren inzwischen nur noch in Handys…

Vergleich ISO 100 und 3200Ganz interessant ist auch ein Vergleich der obigen Bilder mit dem Bildrauschen-Vergleich der digitalen Spiegelreflex. Man kann deutlich erkennen, dass die DSLR wegen ihres größeren Sensors selbst bei höheren Empfindlichkeiten wesentlich weniger rauscht. Ihre Ergebnisse selbst bei ISO 1600 können durchaus mithalten bei ISO 400 an allzu megapixeligen Kompaktkameras.

Neben den möglichst rauscharmen Megapixeln (also der Bildgröße) bestimmt noch ein anderer Wert die Qualität eines Digitalfotos bzw. einer Rastergrafik: Die Anzahl der möglichen Farben, auch Farbtiefe genannt. Darum geht es in der folgenden Lektion.

Mittelformat (Rollfilm 6x6) Mittelformat (Rollfilm 6x6) Mittelformat (Rollfilm 6x6)

Mittelformat: Japanischer Garten Bonn auf Rollfilm 6×6

Kategorien
Aufbaukurs Fotografie Fotokurs

Aufbaukurs, Lektion 1

Große und kleine Pixel: Auflösung und Bildgröße

Wiese mit Löwenzahn
Foto: Wikimedia Commons

Willkommen im zweiten Teil von Rolands Fotokurs, dem „Aufbaukurs“. Nachdem die vergangenen 8 Lektionen im Anfängerkurs einen Einblick in die fotografischen Grundlagen gegeben haben, soll es nun zunächst um einige Besonderheiten von digitalen Bildern gehen. Beginnen wir mit einem ziemlich seltsamen Vergleich:

Fotos auf Filmmaterial sind irgendwie so ähnlich wie Löwenzahn. Digitalfotos sind eher so wie Spargel. :-)

Feld mit Reihen von Spargel
Foto: Wikimedia Commons

Auch wenn’s natürlich ziemlicher Blödsinn ist (der sich dafür umso fester einprägt), macht das Beispiel doch eines deutlich: In der „analogen“ Fotografie auf Negativfilm wird das Bild von winzigen lichtempfindlichen Kristallen aufgezeichnet (siehe Lektion Filmempfindlichkeit im Anfängerkurs). Diese Kristalle sind ziemlich wild durcheinander auf der Filmoberfläche verstreut – ähnlich wie Löwenzahn auf einer Wiese. Bei Digitalfotos hingegen stehen die einzelnen Bildpunkte (Pixel genannt) Reihe für Reihe schön artig in gleichen Abständen nebeneinander – vergleichbar mit Spargel, der ja auch in möglichst gleichmäßigen Reihen ganz regelmäßig angebaut wird.

Digitale Bilder bestehen aus Pixeln

Vergrößertes Pixelraster eines FotosJedes Digitalfoto besteht also aus einer festen Anzahl von Pixeln oder Bildpunkten in einem starren Raster von Spalten und Reihen. Ein Beispiel: Die gezeigten kleinen Bilder von Löwenzahn und Spargel sind 280 Pixel breit und 210 Pixel hoch. Wer sie mit der rechten Maustaste anklickt und sich die Eigenschaften anzeigen lässt, kann dies leicht überprüfen. Ein solches Bildchen hat also 58.800 Pixel (280×210).

Man nennt diese Dateien daher auch Rastergrafik (oder Bitmap). Digitalfotos sind (bisher?) immer rechteckig. Die Pixel stehen immer schön artig genau senkrecht bzw. waagerecht zueinander, ähnlich wie die Kästchen auf einem Blatt Rechenpapier, bei dem in jedem Kästchen nur jeweils eine Farbe zum Ausmalen verwendet wurde.

Selbst wenn man mal ein Bild schräg auf dem Monitor anzeigt (siehe z. B. Beispielfoto Windrad), stehen die Pixel dennoch immer schön gerade im digitalen Punkteraster des Monitors – die schrägen Kanten werden entsprechend mit kleinen ‚Treppenstufen‘ umgerechnet. In Wirklichkeit verbirgt sich auch hinter dem schräg aussehenden Foto eine Datei mit der Form eines geraden Rechtecks. Wenn man den Mauszeiger auf dem Foto festhält (oder auf „Grafik anzeigen“ im Kontext-Menü der rechten Maustaste klickt), kann man es gut sehen.

Vergrößern von Rastergrafiken

Foto-Thumbnail in OriginalgrößeAnzeige des Thumbnails 3fach vergrößertDas kleine Foto der Sonnenblume, das ich links zeige, hat eine Größe von 100 mal 150 Pixeln. Auf dem Monitor wirkt es vermutlich ausreichend scharf für eine solch kleine Darstellung, denn jedes Foto-Pixel wird genau durch 1 Bildschirmpunkt wiedergegeben.

Wenn man das Bildchen jedoch vergrößert, passiert Folgendes: Das ganze Bild wirkt furchtbar ‚pixelig‘. In der vergrößerten Darstellung rechts ist die Qualität nicht mehr ausreichend. Man sieht die (ursprünglich) gleiche Bilddatei, aber sie wird vergrößert angezeigt mit 300 mal 450 Pixeln, so dass jedes Pixel der Bilddatei herhalten muss, um 9 Bildschirmpunkte (3×3) zu füllen. Man bräuchte also eine Bilddatei, die das Foto mit mehr Pixeln enthält (und die gibt es hier).

Das Beispiel zeigt, dass sich digitale Fotos (und sonstige Rastergrafiken) zwar gut verkleinern lassen, dass aber eine Vergrößerung erhebliche Qualitätsverluste mit sich bringt. Denn Informationen, die einmal aus dem Bild durch Verkleinerung herausgerechnet wurden, sind für immer verschwunden.

Auch in der EU nicht ‚zollfrei‘: Die Auflösung von Digitalfotos

Flugboot Do24 vor dem Kölner DomFassen wir noch einmal zusammen: Die Größe eines digitalen Bildes wird durch die Bildpunktezahl bestimmt, also wieviele Pixel das Foto in waagerechter und senkrechter Richtung hat. Im Gegensatz zu Dias oder Negativen kann man bei digitalen Bilddaten zunächst keine Aussage über eine Größe in Millimetern oder Zentimetern machen. Ein Pixel hat keine feste Größe.

Ob das hier gezeigte Dom-Foto mit seinen 270×180 Pixeln nun wie bei mir als ca. 7,5 mal 5 cm großes Bild auf dem Monitor erscheint, oder ob es größer bzw. kleiner abgebildet wird, hängt von der Größe des Monitors und der gewählten Monitor-Einstellung ab, also wie groß der Monitor die einzelnen Punkte darstellt.

Bei meinem Schwager Klaus, der seinen 15-Zöller mit ca. 1280×960 Mini-Pixeln hart an der Augenschmerzgrenze betrieb (bis vor einiger Zeit), erschien das Bild vermutlich nur daumennagelgroß. Andere hingegen bevorzugen Windows mit 640×480 Pixeln auf einem 21-Zoll-Bildschirm, so dass das gleiche Bild schon etwa Taschenbuchgröße hat und man die 180 Pixel vermutlich schon mit bloßem Auge zählen könnte… :-)

Um diese Größenunterschiede irgendwie zu beschreiben, verwendet man für Digitalfotos den Begriff Auflösung. Die Auflösung eines Fotos wird in ppi angegeben; die Abkürzung steht für „pixels per inch“, also „Bildpunkte pro Zoll“. Ein Zoll sind ja bekanntlich grob 2,5 cm (genau: 25,4 mm). Wenn obiges Foto also auf meinem Monitor ca. 7,5 mal 5 cm groß erscheint, dann sind dies ziemlich genau 3 mal 2 Zoll. Bei einer Kantenlänge von 270 bzw. 180 Pixeln erscheinen also auf jedem Zoll genau 90 Pixel. Anders ausgedrückt: Das Bild wird mit einer Auflösung von 90 ppi angezeigt.

Wichtig ist dabei folgender Punkt: Ob eine Bilddatei mit 72 Pixel/Zoll oder mit 300 Pixel/Zoll gespeichert wurde, ist für die Bildqualität absolut unbedeutend. Entscheidend ist die absolute Pixelzahl, also die Kantenlängen des Bildes. Wer’s nicht glaubt: Die beiden folgenden Bilder sind mit unterschiedlicher Auflösung gespeichert, aber sie haben beide die gleichen Abmessungen:

Foto gespeichert mit 72ppi Foto gespeichert mit 300ppi

PhotoImpact-Screenshot, 72ppi PhotoImpact-Screenshot, 300ppi

Nach stundenlangem Vergleichen der beiden Fotos stellt man fest: Die eingestellte Auflösung ist nur ein Umrechnungsfaktor, der im Bildbearbeitungsprogramm jederzeit verlustfrei geändert werden kann. Beide Fotos sind absolut identisch, trotz völlig unterschiedlicher Auflösung.

(Anmerkung: Im allgemeinen Sprachgebrauch wird der Begriff „Auflösung“ allerdings auch häufig für die absolute Pixelzahl oder die Bildgröße verwendet. Man sagt, Kamera X habe eine Auflösung von 6 Megapixel, oder von Kamera Y wird berichtet, sie erzeuge Bilder mit einer Auflösung von 3072 mal 2048 Pixeln. Hier auf dieser Seite geht es aber um Auflösung im Sinne von „Bildpunkte pro Zoll“.)

Fotodrucke und Papierfotos

Für Monitore sind Auflösungen zwischen ca. 72 bis 96 ppi ganz normal. Für ein Foto oder den Ausdruck eines Fotos reichen 70 oder 100 Punkte pro Zoll allerdings nicht, um eine gute Qualität zu erhalten. Auf Papier ist man einfach eine höhere Auflösung, also eine bessere Druckqualität gewohnt. Man vewendet die Einheit dpi, was für „dots per inch“ steht – also (Druck-)Punkte pro Zoll. Das bisher dimensionslose Pixel erhält beim Druck ja auf einmal eine feste Größe.

Die Einheiten ppi und dpi werden oft genug verwechselt, und sie beschreiben ja auch fast das gleiche, weshalb ich das auch nicht weiter schlimm finde. Beide Einheiten geben an, wie viele Pixel bzw. Punkte auf einer Strecke von 25,4 mm zu finden sind. Als Richtwert kann man sich merken, dass für die Ausgabe als Foto-Abzug bzw. -Druck in hoher Qualität 300 dpi meist absolut ausreichend sind. 200 dpi sind auch noch einigermaßen gut, aber mit 70 oder 100 dpi wirken Fotos leider nur grob pixelig oder unscharf bzw. verschwommen (ähnlich wie das oben stark vergrößerte Sonnenblumen-Bild).

Unser 270×180 Pixel großes Dom-Foto könnte also in hoher Qualität nur mit einer Breite von ca. 22mm ausgegeben werden; mehr als 270 Pixel sind einfach nicht vorhanden. Die genaue Berechnung der maximalen Ausgabegröße geht ziemlich einfach:

Pixelzahl durch Auflösung = Ausgabegröße in Zoll.
Diese mal 2,54cm und man hat das Ergebnis in Zentimetern.

Drei Beispiele sollen dies verdeutlichen. Ich berechne jeweils zunächst die längere Kante des Bildes. Die kürzere ergibt sich dann automatisch aus dem Seitenverhältnis des jeweiligen Bildes (meist 2/3 oder 3/4 der längeren Seite):

Ausdruck eines Fotos einer 6-Megapixel-Kamera mit 3000×2000 Pixeln Größe:
3000 / 300 = 10 Zoll = ca. 25 cm Bildbreite bei 300 dpi (hohe Qualität)
3000 / 200 = 15 Zoll = ca. 38 cm Bildbreite bei 200 dpi (mittlere Qualität)

Ein Hochformat-Bild von meiner Website (z.B. die Sonnenblume) mit 400×600 Pixeln soll gedruckt werden:
600 / 300 = 2 Zoll = ca. 5,1 cm Bildhöhe bei 300 dpi (hohe Qualität)
600 / 200 = 3 Zoll = ca. 7,6 cm Bildhöhe bei 200 dpi (mittlere Qualität)

Ein Tag ohne Dich ist wie ein Tag ohne SonnenscheinEine Postkarte von 10×15 cm Größe soll produziert werden (der übliche Kitsch: romantisches Foto mit passender Lebensweisheit). Wie viele Pixel sollte das Foto mindestens haben?

Lösung: 15 cm = ca. 6 Zoll. 6 Zoll mal 300 dpi = 1800 Pixel. Es wird also für die Postkarte ein Foto von möglichst 1800 mal 1200 Pixeln benötigt. Entweder überredet man den Webmaster, das Sonnenblumen-Foto in hoher Auflösung zur Verfügung zu stellen, oder man klaut woanders ein ähnliches Bild mit höherer Pixelzahl. Dazu könnte man dann schreiben: „Ein Tag ohne Dich ist wie ein Tag ohne Sonnenschein“. :-)

Wie man sieht, haben Fotos in den internetüblichen Größen bis ca. 900×600 keine allzugroßen Reserven beim Ausdruck. Ein gutes Papierfoto braucht einfach eine wesentlich höhere Pixelzahl, weil es bei gleicher Darstellungsgröße viel mehr Details zeigen kann (und soll) als ein entsprechendes Monitorbild.

Nach soviel Mathematik und verwirrenden Berechnungen mag sich die Frage stellen: Wieviel davon braucht man wirklich in der Praxis? Und da kann ich beruhigen: Meist so gut wie nichts! Was ein Pixel ist, und dass diese keine feste Größe haben, aber wie Spargel in Spalten und Reihen wachsen, das sollte man möglichst behalten. Aber die genaue Rechnerei mit ppi und dpi braucht man heutzutage nur sehr selten, weil die heutigen Programme einem meist diese Arbeit abnehmen. Es ist allenfalls hilfreich, um die Zusammenhänge besser zu verstehen.

Wer z. B. heute Papierbilder über das Internet bestellt, bekommt in der Software oder auf der Website des Anbieters bereits angezeigt, ob die Bildgröße ausreichend ist. Hat das Bild ausreichend viele Pixel, um es mit 300 dpi zu drucken, wird meist ein grüner Balken oder eine grüne Ampel oder ein grüner Rand eingeblendet. Reicht es dazu nicht ganz, erscheint Gelb. Und ist es ein Foto, das allenfalls für Bildschirmdarstellung reicht, so wird dies meist durch Rot gekennzeichnet. Die Software berechnet dies ganz automatisch, indem sie ’nachschaut‘, wie viele Pixel das Bild in horizontaler und in vertikaler Richtung hat. Sollte jedoch Gelb oder Rot erscheinen, dann wird spätestens nach Lesen dieser Seite hoffentlich klar sein, dass es nicht ausreichend ist, die eingestellte Auflösung des Bildes zu erhöhen. Es muss halt ein Foto mit mehr Pixeln her. Wenn man dies verstanden hat (und man das Foto in Originalauflösung noch auf der Festplatte findet), dann hat sich unser Ausflug in das Reich der Pixel und der Auflösungen doch gelohnt, oder? :-)

Nachdem wir nun betrachtet haben, was es mit Auflösung und Pixelzahl grundsätzlich auf sich hat, stellen sich Fragen wie die folgenden: Wie viele Pixel (bzw. Megapixel) sollte eine Digitalkamera denn haben? Und wird die Bildqualität mit höherer Megapixelzahl automatisch besser? Um diese Fragen geht es in der folgenden Lektion.

Pixel in freier Natur: Legoland Dänemark