HOME

ÜBER MICH

GALERIE

EQUIPMENT

TIPPS & TRICKS

KOOPERATION

LINKS

 

 
 

DAS LRGB-Verfahren

         

Bei vielen Astrobildern liest man bei den Bilddaten etwas von "Luminanz" und "RGB". Vielleicht fragt sich so mancher, was hinter diesen Ausdrücken steckt - ich möchte hier versuchen, Licht ins Dunkel zu bringen.

1. "LRGB" - was heißt das?

"L" steht für "Luminanz" und bezeichnet ein Bild, das die Helligkeitsinfomation und die Schärfe ins Bild bringt. Wie das funktioniert und aussieht, wird später erklärt. "RGB" bedeutet einfach "Rot, Grün und Blau" und heißt, dass das Farbbild aus drei durch Farbfilter belichteten Bildern zusammen gesetzt wurde. (= additive Farbmischung)

 

2. Was bringts?

In der normalen Tageslichtfotografie hat man mit diesem Verfahren nichts zu tun. Man drückt auf den Auslöser und erhält ein Farbbild. Jedoch steckt auch in jeder Digitalkamera ein schwarz-weiß-Sensor. Der Chip nimmt also nur Helligkeitsinformationen auf. Das Farbbild kommt dadurch zustande, dass VOR dem Chip hauchdünne Filter sitzen, nämlich blaue, grüne und rote. Vor jedem einzelnen Pixel ist also ein winziger Farbfilter angebracht, auf einen roten und einen blauen kommen zwei grüne. Vier Pixel ergeben somit vereinfacht gesagt ein farbiges Pixel.

Durch eine komplexe Operation, entweder kameraintern oder, wenn man die Fotos im RAW-Format aufnimmt später am Computer, werden die Bilder in Farbbilder umgerechnet ("debayert":  das "Filtersystem" vor dem Chip wird als "Bayer-Matrix" bezeichnet).

Der Vorteil ist, dass man mit einem Bild ein farbiges Bild hat - am Tage wäre es völlig unpraktisch, jedes Motiv dreifach, nämlich durch jeden Farbfilter extra, zu fotografieren.

Es gibt auch Astrokameras mit einer Bayermatrix, also Farbkameras. Üblicherweise werden sie als "OSC"-Kameras bezeichnet, "One shot color"-Kameras. Hier ist der große Vorteil, dass man die Aufnahmesession jederzeit abbrechen kann, man hat immer ein farbiges Endergebnis. Leider gibts auch einen Nachteil - weil nur mehrere Pixel zusammen ein farbiges ergeben, entsteht ein Auflösungsverlust gegenüber reinen schwarz-weiß Chips.

 

3. Wie funktioniert das mit den Farbfiltern?

Es gibt, wie oben erwähnt, im Astrobereich Farbkameras, und sogenannte "monochrome" Kameras, vor deren Chip keine Filter sitzen. Macht man mit einer solchen Kamera ein Bild, egal ob bei Tag oder Nacht, ist das Resultat ein schwarz-weiß-Bild. Dennoch kann man damit Farbbilder erstellen.

Dazu wird einfach ein Bild durch einen roten, eines durch einen blauen und eines durch einen grünen Filter belichtet und diesen drei Bildern am Computer ihre jeweilige Farbe zugewiesen. Die drei eingefärbten Bilder werden dann übereinander gelegt und ergeben ein Echtfarbenbild.

Die Farbfilter decken dabei das sichtbare Spektrum des Lichts von 750 Nanometern (rot) bis etwa 400 Nanometer (violett) ab - alles außerhalb dieses Wellenlängenbereichs wird abgeblockt. Jeder der drei Farbfilter lässt nur Licht eines bestimmten Wellenlängenbereichs passieren - mein Blaufilter beispielsweise lässt Licht in der Wellenlänge zwischen etwa 390 Nanometern und 520 Nanometern durch. Schaut man durch den Filter durch, wird alles dunkler, weil ja nur etwa ein Drittel des sichtbaren Lichts durchgelassen wird.

Somit kann man schon Vorteile und Nachteile erkennen:

Ein Nachteil ist, dass man immer drei Bilder machen muss, um ein Farbbild zu erhalten. Bei dem meist nicht recht stabilen Wetter in unseren Breiten kann es also schon mal länger dauern, bis man in allen drei Farben genug Einzelbilder für ein fertiges Farbbild beisammen hat. Die meisten Astrofotografen belichten aber stets abwechselnd durch die Filter, so dass am Ende wenigstens nicht ein einzelner Farbkanal fehlt und man mit den Daten erst mal nichts anfangen kann.

Der Vorteil ist, dass man immer alle Pixel nutzt und somit die maximale Auflösung, die mit dem jeweiligen Setup erreichbar ist, nutzen kann. Eine monochrome Kamera ist einer Farbkamera also in punkto Auflösungsvermögen ("welche Details kann ich gerade noch getrennt darstellen?") überlegen.

Weiters lassen sich monochrome Kameras mit sogenannten "Schmalbandfiltern" (Stichwort "Hubble-Palette") nutzen - vielleicht schreib ich dazu auch mal was. Bis dahin bitte die Suchmaschine Ihrer Wahl nutzen...

 

4. Halt - da war noch was mit Luminanz?

Als "Luminanz" oder kurz "L"-Bild bezeichnet man ein Bild, das zum Endergebnis die Helligkeit und die Schärfe beisteuert. Luminanzfilter lassen das gesamte sichtbare Spektrum des Lichts passieren - theoretisch könnte man diese Aufnahmen auch ohne Filter gewinnen. Jedoch sind die meisten monochromen CCD-Kameras auch noch etwas in den "unsichtbaren" Bereich des Lichts hinein empfindlich, können also auch noch Lichtwellen detektieren, die das menschliche Auge nicht wahrnehmen kann. Da man versucht ist, möglichst "naturgetreue" Astrobilder zu erstellen, lassen die Farbfilter nur das sichtbare Spektrum passieren - hätte man nun auf der Luminanzaufnahme Strukturen außerhalb dieses Wellenlängenbereichs aufgenommen, hätte man keine Farbinformation dazu.

Klar ist, dass ein durch den Luminazfilter belichtetes Bild bei gleicher Belichtungszeit mehr Bildinformation enthält als ein Bild durch einen Farbfilter - da kommt ja nur etwa 1/3 des sichtbaren Lichts durch. Da liegt schon ein Problem begraben - man muss aufpassen, dass die Farbbilder mit der Luminanz "mithalten" können. Ansonsten hat man möglicherweise Strukturen am Bild, für die keine oder nur sehr wenig Farbinformation vorhanden ist. Es ist aber erstaunlich, wie wenig Farbe ausreicht, um ein Bild einzufärben - die Demonstration folgt weiter unten!

 

Die Luminanz steuert also die Tiefe für das Bild bei und die Schärfe - man kann Luminanzbilder im allgemeinen etwas "härter" bearbeiten als die Farbbilder, bevor Artefakte wie etwa Rauschen zum Vorschein kommen. Durch das Beifügen von Lumianzaufnahmen kann man auch recht unscharfe Farbbilder knackig scharf machen - beziehungsweise umgekehrt reichen nicht ganz so scharfe Farbbilder zum Einfärben aus.

Daher kann man die Farbbilder im sogenannten "Binning" gewinnen. Das bedeutet, dass immer z.B. 2x2 Pixel zu einem einzigen zusammengefasst werden. Das Bild ist dann nur halb so breit und hoch wie normal, und auch die Auflösung ist natürlich reduziert. Der Vorteil ist eigentlich, dass die Datenmengen nicht so groß sind, das Auslesen des Bildes vom Kamerachip schneller geht (bei großen Chips dauert das schon man 30 Sekunden!) und die Nachführung nicht ganz so genau laufen muss.

Bei mir beispielsweise sind die Filter nicht homofokal, das bedeutet, wenn ich auf den Rotfilter fokussiere, ist das Bild im Blaufilter unscharf usw. Das geht so weit, dass die Spikes an den Sternen dann doppelt abgebildet werden - DAS ist dann eine Unschärfe, die nicht mehr ausgeglichen werden kann. Möchte ich aber die Filter nach jeder Aufnahme wechseln, um nicht wegen Wolken plötzlich ohne z.B. blaugefilterte Bilder da zu stehen, müsste ich nach jedem Bild neu fokussieren - recht unpraktisch. Daher nehme ich die Farben meist im 2x2 Binning auf, da sind die Auswirkungen nicht so dramatisch.

Diese Bilder werden dann am Computer wieder auf die normale Größe hochgerechnet - ganz klar, dass das Ergebnis nicht mehr recht scharf ist. Es wirkt verwaschen - wir werden aber sehen, dass das erstaunlich wenig ausmacht.

Nur wenn man auf feinste Strukturen aus ist oder sehr schwache und kleine Hintergrundobjekte auch einfärben möchte, ist das Binning nicht zu empfehlen!

Ganz wichtig: immer selbst ausprobieren - ich kann hier nur meine Erfahrungen mit meinem Setup und meinem Standort wiedergeben!

 

5. Die Praxis!

Hier möchte ich zeigen, wie mit einer monochromen Kamera im LRGB-Verfahren ein Bild der Galaxie M101 entsteht.

Beginnen wir mit den farbgefilterten Bildern:

    Und das Bild dann in Photoshop blau eingefärbt:    
M101, 70 Minuten (14x5) durch einen Blaufilter belichtet:  
       
M101, 70 Minuten (14x5) durch einen Grünfilter belichtet: Und das Bild dann in Photoshop grün eingefärbt:  
       
M101, 70 Minuten (14x5) durch einen Rotfilter belichtet: Und das Bild dann in Photoshop rot eingefärbt:  
       
Diese drei Farbbilder werden anschließend überlagert (wie beim Malen mit Wasserfarben...), das Ergebnis ist ein Farbbild, das von der Farbgebung her schon nicht so schlecht aussieht:
         
 
         
Man erkennt aber deutlich dass da bei der Schärfe noch mehr ginge. Die Farbkanäle wurden hier wie oben beschrieben im 2x2 Binning aufgenommen, daher ist die Bildschärfe nicht gerade gut. Aber wir haben ja noch die Luminanz...
M101, 390 Minuten (78x5) durch einen Luminanzfilter belichtet:        
 
       
Man erkennt deutlich, dass das Bild schärfer ist und eine größere Tiefe hat (schwächere Strukturen sind sichtbar). Dieser schönen Spirale wollen wir jetzt mal Farbe einhauchen - aber geht das mit dem oben gezeigten Farbbild?
   

+

   

= ??

     
Es gelingt tatsächlich, mit recht wenig Farbe ein buntes Bild zu erzeugen! Jeder Farbkanal wurde hier nur etwa 20% so lange belichtet wie die Luminanz (nicht optimal, wetterbedingt leider nicht anders möglich), dennoch reicht das recht gut aus:
         

Mouseover für den Vergleich

 
       

 

 

 

 

IMPRESSUM