0

Deepscapes – Beispiele und „Howto“

5. Juli 2025

Es ist ja „alles“ englisch und hip und cool und was weiß ich, also:

D E E P S C A P E S

„Un Corazón para Padre Teide“ – ein Herz für den Teide, Spaniens höchster Berg auf Teneriffa. Zu sehen ist der Herznebel im Sternbild Kassiopeia – ein 6.500 Lichtjahre entfernter Emissionsnebel. Stack aus 85 Lights á 90 s Belichtungszeit für den HImmel

Landscape und Cityscape findet man noch im Dictionary mit Bedeutung auch außerhalb der Fotografie. Deepscape ist dagegen ein Phantasiewort – angelehnt an die Wortbildung von Landscape. Deepscapes sind Landschaftsaufnahmen kombiniert mit einem Deep Sky Objekt im Nachhimmel. Und was ist nun wieder „Deep Sky“? Nun, der „tiefe“ oder „ferne“ Weltraum, also alles außerhalb unseres Sonnensystems. Das sind typischerweise größere/hellere Nebel innerhalb der Milchstraße wie der Orionnebel oder auch andere Galxien – hier drängt sich vor allem unserer Nachbar M31, die Andromedagalaxie auf.

Weitwinkelaufnahmen mit der Milchstraße sind keine Deepscapes, hier kann man von Astroscapes sprechen.

Lagunen- & Trifidnebel über Optical Ground Station

Eigentlich sollte es eine Zeitraffer werden und die Idee mit dem zunächst das Observatorium beleuchtenden Mond war ja auch nicht ganz schlecht. Ich hätte aber einen Tag früher dort sein müssen. So hat der Mond für die Zeitraffer alles im Himmel überstrahlt. Also Planänderung: Für den Vordergrund habe ich ein paar Bilder der Zeitraffersequenz vom Beginn gemittelt. Aufnahmedaten: 1,6 Sekunden und ISO 10.000 mit Sony A7r III und uralt Nikon 400/2,8. Komische Einstellungen aber es sollte ja eine Zeitraffer werden. Immerhin rauscht es nicht großartig durch die Verrechnung mehrerer Bilder. Durch die deutliche Beleuchtung des Mondes erscheint der Vordergrund vielleicht etwas unpassend zum Himmel – hab’s nicht besser bearbeitet bekommen.
Nach Ende/Abbruch der Zeitraffer und Monduntergang hatte ich dann und kurzerhand eine gute halbe Stunde mit Nachführung auf die beiden Nebel gehalten. Gleiches Setup aber f4, ISO 3200 und 30 s Subs – gestackt und bearbeitet mit Siril. GraXpert und natürlich Photoshop beim zusammenfügen haben auch noch geholfen.

Die Optical Ground Station (OGS) der ESA steht übrigens in rund 2.400 Meter auf Teneriffa am Rand des Teide Nationalparks. Es geht dort überwiegend um Sonnenbeobachtung, die OGS hat aber ganz andere Aufgaben – einfach mal auf Wikipedia nachlesen 😉

Rho-Opiuchi Wolkenkomplex über dem Teide

1,5 Stunden Rho-Opiuchi mit dem 135er Samyang bei f 2,8 und ISO 400 mit Sony A7 rIII für den Himmel

PlanIt! hat mir verraten, von wo diese farbenfrohe Region mit ihren Richtung Milchstraßenzentrum zeigenden Dunkelnebeln genau so über dem Teide zu sehen ist. In der Gegend von Fuente La Vega im Norden Teneriffas. Da kommt Touri eher selten hin. Schilder mit „Achtung GPS-Fehler“ soll die abhalten, auf echt abenteuerlich enge, kurvenreiche und krass steile Straßen zu geraten. Wenn beim Gas geben bei 10 km/h im 1. Gang die Räder durchdrehen, geht’s für öffentliche Straßen wohl nicht mehr viel steiler 😉
Neben einer Quelle (daher der Name), die von den Einheimischen rege zum Abfüllen von Trinkwasser genutzt wird, gibt es manchmal auch den Blick auf den Teide. Manchmal, weil da sich durch die feuchten Passatwinde dort regelmäßig Wolken bilden. Ein bisschen Glück gehört auch dazu und meine Geduld wurde belohnt – nach der Abenddämmerung haben sie sich aufgelöst und den Singleshot für den Vordergrund ermöglicht.

Flammen- & Pferdekopfnebel über dem Teide

Eingefleischte Deepsky-Expert:innen bekommen da hin und wieder die Kriese weil das „Pferd“ auf dem Kopf stehen würde. Die sind es gewohnt alle Objekte so zu drehen wie sie Lust haben – im Weltraum gibt es ja auch nicht wirklich ein „oben“ und „unten“. Mit terrestrischen Vordergrund gibt es das aber und meiner Ansicht nach verbietet es sich absolut und ohne Ausnahme, etwas anderes zu zeigen, als was mit einer „perfekten“ Kamera tatsächlich zu sehen wäre. Also das Pferd und die Flammen gehören genau so da über die Bergspitze wie sie dargestellt sind – basta 😉

Aufgenommen mit dem Sony 200-600 bei 600 mm und Blende 8 – mehr als 30 s Subs habe ich nicht hinbekommen aber 400 Stück davon bei ISO 400 mit einer A7 rIII. Der Vordergrund ist ein Einzelbild und ein wenig dunkel wenn ich mir es jetzt so anschaue.

Andromedagalaxie neben dem VTT

Nicht so ganz gelungen die Komposition aber wenn man halt mit dem Redcat bei 300 mm auf die Mitte von M31 hält und nicht dran denkt, dass da ein Teleskop nebendran passen soll, dann wird der Platz knapp 😉
40x 2 Minuten bei ISO 400 für den Himmel, das VTT habe ich 9x mit ISO 1600 und 30 s aufgenommen und die Bilder gemittelt. Jeweils Sony A7 rIII, der APO hat bei 61 mm Öffnung f 4,9.

Kaliforniennebel & Plejaden

Für den Himmel habe ich mit der astromodifizierten A7III und dem Samyang 85/1,2 80 getrackte 90 s Lights bei ISO 1600 und f 2,8 mitsamt Flats, Darks und Biasfarmes aufgenommen und in Siril gestackt. Dazu ein 2 min Singleshot ebenfalls bei f2,8 in Photoshop mit gelöschtem Himmel darübergelegt.

Was sehen wir?
Das rote rechts ist der Kaliforniennebel, NGC 1499 – das mit gut 1.000 Lichtjahren Entfernung uns am nächsten gelegene HII-Sternentstehungsgebiet. Da lohnt die Astromodifikation, ohne müsste man wohl ein vielfaches belichten.
Das helle links unten sind die (nicht so gelungenen) Plejaden, das „Siebengestirn“ oder eben die Seven Sisters im englischen. Der offene Sternhaufen, ganz unromantisch auch M45 bezeichnet, ist „nur“ rund 450 Lichtjahre entfernt und mit bloßem Auge sichtbar – je nach Auge und Himmelsqualität so 6-9 Sterne.
Im Vordergrund einige Gerätschaften vom Observatorio Astronómico del Teide auf Teneriffa. Auf rund 2.400 Meter wird überwiegend Sonnenbeobachtung gemacht, leider wird auch dort der Himmel reichlich lichtverschmutzt – auf La Palma schaut das gravierend anders aus. Egal – Jammern auf hohem Niveau im Vergleich zum Rhein-Main-Gebiet z.B. Links STELLA, ganz rechts das VTT (Vacuum Tower Telescope) und das schick rote das ASTRI-1 Telescope. Davon soll es noch acht weitere geben für ein ganzes Array zur Untersuchung eines bestimmten Bereichs der Cherenkov-Strahlung.

Orion hinter Leuchtturm

Aus der Kategorie „nicht so gelungen“ – zumindest der Orionnebel selbst geht komplett unter – dafür viel „außenrum“. Für den Vordergund ein Einzelbild mit f 8 um die Blendensterne um das Leuchtfeuer zu bekommen – dafür satte 240 s Langzeitbelichtung mit interner Langzeit-Rauschreduktion bei ISO 100. Der Hintergrund ist natürlcih mit dem gleichen Objektiv, dem Samyang 135/1,8 entstanden – abgeblendet auf 2,8 waren es 100 Bilder á 30 s. Nicht fragen, weshalb nur 30 s – ich habe keine Ahnung 😉

M42 über dem Teide Observatorium

Das war eigentlich der Spot, den ich mir für eine Zeitraffer mit 400 mm vom Orionuntergang zwischen den Teleskopen auf Teneriffa ausgesucht hatte. Da war ich dann glaube ich vier Mal – Wind, Fokus versemmelt, mieses Seeing, Schnee aber andere Geschichte. Für den Vordergrund mit einer Langzeitbelichtung hat’s gereicht. Orion wenige Kilometer weiter von der Terrasse aufgenommen und ein paar seltsame Artefakte „eingebaut“ – irgendwas ist halt immer.


Next Step: Deepscape-Zeitraffer

Nicht ganz so schön? Stimmt – nicht so recht scharf, verauscht. ABER: Das ist ein Einzelbild. Aus einer Zeitraffer. Da wird’s so richtig cool finde ich – Deepsky-Objekte, deren Auf- oder Untergang hinter terrestrischen Objekten in bewegten Bildern gezeigt wird. Dabei wird noch deutlicher, dass das kein erfundenes oder gar KI-generiertes Composite ist wie man bei den Deepscapes zuvor unterstellen könnte, sondern das das da am Himmel wirklich „so ist“. Herausforderungen und Bearbeitung ist hier wieder eine ganz andere Sache – nichts (kaum was) mit Stacking und die Bilder können nicht wirklich in Himmel und Vordergrund zur separaten Bearbeitung aufgeteilt und wieder zusammengesetzt werden. Neben dem Aufwand das für hunderte Bilder zu machen, würde man sich vermutlich auch zwangsweise ein ordentliches Flickern einfangen.

Herausforderungen

Einfach ist das nicht – man braucht ein paar hundert Bilder, die Objekte sind aber nicht lange hinter einem Vordergrund sichtbar. Also kurze Verschlusszeit. Auch wenn man mit Nachführung arbeitet und die sonst entstehenden Strichspuren bei längeren Verschlusszeiten kein Thema sind.
So richtig hell sind die Deepsky-Objekte auch nicht – bleibt hohe Lichtstärke und hohe ISO-Werte (oder hochziehen in der Bearbeitung).

Aus der Kategorie „macht man eigentlich nicht“: Super schweres Nikon 400/2,8 Tele auf der kleinen Polarie Nachführung. Links unten sieht man das Ziel der Aufnahme: Observatorien und dahinter Orion.

Bei 400 mm sind wir auch so ziemlich am Ende des Machbaren angekommen – mehr Lichtstärke kostet den Gegenwert eines Luxus-Pkw – wenn es überhaupt was gibt. Je länger die Brennweite, desto kürzer muss die Verschlusszeit sein, um noch genug Bilder für ein paar Sekunden Zeitraffer zusammenzubekommen. O.K. – Orionuntergang hab ich mal mit knapp 2 m Brennweite aufgenommen (im Video unten zu sehen inkl. wie’s „hinter“ der Kamera aussah) aber so richtig sinnvoll ist das nicht. Für 400/2,8 habe ich mir was noch einigermaßen bezahlbares rausgesucht und bin bei einer uralten, gebrauchten, manuellen Nikon Linse gelandet, die man per Adapter auch an meine Sonys bekommt.

So sahen erste Versuche einer Deepscape-Zeitraffer 2017 mit der ersten A7s bei mir aus – M31 als milchiger Fleck. Wie’s inzwischen ausschaut, seht ihr ganz am Ende des Beitrags …

Neben lichtstarken Objektiven braucht es auch Kameras, die am besten jedes einzelne Photon in Bildinformationen umwandeln, wenn mit kurzen Verschlusszeiten dunkle Objekte sichtbar werden sollen. Da war die Sony A7s vor rund 10 Jahren schon ein Gamechanger – plötzlich sah man die Milchstraße im Liveview auf dem Display und nicht erst nach zig Sekunden Belichtung! Damals der helle Wahnsinn, heute fast selbstverständlich bei allen Herstellern.


Howto

Wer’s bis hierher geschafft hat, hat ein paar Dinge schon gelesen zu Ausrüstung und Einstellungen aber möglciherweise mehr neue Fragen als Antworten erhalten. Also hier ein wenig strukturierter, wie ich an Deepscape-Bilder (nicht Zeitraffer) herangehe – ohne Anspruch, dass es nicht andere und bessere Möglichkeiten gibt!

Ausrüstung:

Es muss nicht die zig tausend Euro Vollformatkamera mit Topobjektiven sein! Macht die Sache einfacher, es geht aber auch „günstig“ mit den Deepscapes:

  • Für den Vordergrund kann man lange belichten, viele Bilder zur Rauschreduktion kombinieren und/oder in der Dämmertung aufnehmen – das geht mit jeder Ausrüstung!
  • Für den Himmel bedient man sich der Techniken der Astrofotografie, man „stackt“ viele Bilder und wenn man ein lichtschwächeres Objektiv hat, muss man „nur“ mehr Bildler machen und diese verrechnen und bekommt auch tolle Ergebnisse.

Da sich an die Thematik nur Leute heranmachen sollten, die schon ein wenig Erfahrung in der Nachtfotografie haben, ist die Erwähnung von einem stabilen Stativ, Fern-/Intervallauslöser u.ä. hier eher überflüssig. Zu Intervallauslösern findet ihr einiges auf meinem anderen Blog timelapsevideo.eu.

Nachführung, Tracker, Montierung
Die Nachführung gleicht die Erdrotation aus, so dass man sehr lange belichten kann, ohne dass die Sterne zu Strichen werden. Es geht bei kürzeren Brennweiten auch mit (sehr) vielen Einzelbildern ohne Nachführung aber bei Brennweiten jenseits von vielleicht 100 mm ist das dann langsam gar nicht mehr sinnvoll. Einfache Modelle haben nur eine Drehachse, die entlang der Erdachse ausgerichtet wird – auf der Nordhalbkugel zielt man einfach auf den Polarstern und richtet auf das gewünschte Objekt manuell mit Kugelkopf o.ä. aus. Preislich liegt man hier bei ein paar hundert Euro (z.B. Vixen Polarie, Omegon MiniTrack LX3 / Quattro, Skywatcher Star Adventurer, iOpton SkyGuider).
Mit zwei Achsen lässt sich jede Richtung direkt „anfahren“ und wenn man da eine entsprechende Elektronik dranhängt, kann man nach Einrichtung des ganzen Setups mit „Goto“ aus einer Datenbank alle möglichen Objekte automatisch vor die Linse bekommen. Das ist dann auch die Variante für große und schwere Teleskope. Das geht dann mit sowas wie einer EQ-3 oder EQM 35 für 700-900 € los und hört quasi nicht auf. Moderne „kleine“ Nachführungen mit Harmonic / Strainwave Antrieb wie die ZWO AM3 schlagen gleich mit rund 2.000 € zu Buche und für eine 10 Micron GM4000 kann man knapp 34.000 € ausgeben 😉

Software

  • Stellarium (https://stellarium.org/) – kostenlos & open source für Windows, Mac, Linux und auch als App für’s Smartphone verfügbar. Ein Planetarium mit Ansicht des Nachthimmels inkl. Berücksichtigung von Lichtverschmutzung. Man kann verschiedene Brennweiten eingeben und sieht wie Objekte damit erscheinen, natürlich Auf- und Untergangszeiten usw. – „must have“
  • PlanIt! oder Photopills – kostenpflichtige Apps, die nahezu unverzichtbare Hilfsmittel für die Planung von Deepscapes oder auch Mondaufgänge direkt über eine Bergspitze u.ä. sind. Daher auch klares „must have“.
  • Stacking-Software – wenn wir detailreiche Bilder von Deepsky-Objekten haben möchten, müssen wir viele Aufnahmen mit spezieller Software kombinieren. Zwei einfache Programme können das zwar mit Erkennung Himmel/Vordergrund und geben direkt ein gemeinsames Bild aus aber für Deescapes wie zuvor gezeigt sind die nicht geeignet. Klingt zwar super, funktioniert aber eher bei Weitwinkelaufnahmen und auch lange nicht immer – Sequator (kostenlos) für Windows und Starry Landscape Stacker für Mac (Größenordnung 40€).
    Für „richtiges“ stacken mit speziellen Funktionen empfehle ich Siril – multiplattform, kostenlos, einfach mit fertigen Scrips oder „manuell“ mit allen Eingreifmöglichkeiten zu bedienen und zwei weitere wichtige Tools können dort eingebunden werden. Noch leistungsfähiger wäre z.B. Pixinsight aber mal eben schnell zu bedienen ist die Software nicht und kostet auch 300 € Netto.
  • GraXpert – kostenlos für Windows, Mac & Linux und macht vor allem „Gradientenentfernung“. KI-unterstützt wird das Bild analysiert und die gerade in Horizontnähe auftretende Bildveränderung durch sich ändernde Luftschichten herausgerechnet. Aber auch gegen Vignettierung hilft es und eine Rauschreduktion ist auch noch eingebaut.
  • StarNet Sternentfernung – Hä? Weshalb denn Sterne entfernen? O.K. – Entfernung stimmt nicht wirklich, das direkt in Siril einbindbare Tool trennt das Bild in zwei Teile auf: Ein „entsterntes“ Bild mit optimierter Bearbeitungsmöglichkeit für Nebel und ähnliche Strukturen und eins nur mit den Sternen. Macht man das gemeinssam, werden die Sterne alle weiß und aufgebläht oder man hat schöne Sterne und sieht kaum was von den Deepsky-Objekten.
  • Bildbearbeitung – klar, eine ganz „normale“ Bildbearbeitungssoftware braucht’s auch. Ich nutze hier schon „immer“ Adobe Lightroom aber zum zusammenfügen von Vorder- und Hintergrund ist das Programm nicht geeignet und es braucht Photoshop oder eine Alternative, die Ebenen und Masken beherrscht.

Planung

PlanIt!, Photopills oder eine ähnliche App sind „Pflicht“, Details würden den Rahmen hier noch mehr sprengen aber klar ist: Wir brauchen einen schicken Vordergrund, ein Deepsky-Objekt und einen Standort für unsere Kamera. Das klingt einfacher als es ist, denn wir benötigen einen Standort auf der Linie des Deepsky-Objekts über den Vordergrund hinaus in zur Brennweite passendem Abstand mit freier Sichtlinie, zu dem wir mit unserer Ausrüstung auch noch ohne Hubschrauber hinkommen 😉
Das ist zumindest mein Anspruch und wenn’s das nicht gibt, dann geht das Bild halt nicht was man im Kopf hatte. Irgendeine Aufnahme vom Himmel mit einem Vordergrund zu kombinieren wo der Himmel niemals so zu sehen ist, halte ich für ein absolutes no go.
Da machen sich die erwähnten Apps mehr als bezahlt!

  1. Man setzt eine Markierung beim ausgesuchten Vordergrund, also bei mir immer wieder der Teide 😉
  2. Dann wählt man das gewünschte Deepsky-Objekt in der App aus und stellt die Zeit in etwa so ein, dass es ein paar Grad über dem Horizont ist, also rund um Auf-/Untergang.
  3. Dann sieht man schon die Line vom Objekt zur Kameramarkierung, die man dann auf der Karte so verschiebt, dass die Line über die Vordergrundmarkierung geht. Man bekommt dann den tatsächlichen Höhenwinkel zum Vordergrund angezeigt und kann die Uhrzeit und somit Höhe des Deepsky-Objekts anpassen
  4. Dann schaut man, wo die Kameramarkierung steht bzw. eher, ob in Verlängerung davor oder dahinter eine zugängliche Stelle ist und verändert die Markierung entsprechend.
  5. Nun kann man prüfen, ob freie Sicht besteht oder eventuell ein Berg im Weg ist. Man kann auch eine virtuelle Sucheransicht aufrufen und hat damit eine realitätsnahe Simulation des Bilds – natürlich kann man die Brennweite eingeben bzw. verändern und sieht direkt wie sich das auswirkt. Crazy, oder?

Nachfolgend von einer Szene die normale Kartenansicht mit Visualisierung von Sonnen-/Monduntergang, Kamerapin rechts und Szene links. Rechts dann der virtuelle Sucher – so würde es mit der eingestellten Brennweite etc. aussehen.

Das ist natürlich nur eine Herangehensweise – man kann auch den Kameraspot festlegen und schauen, was über dem Vordergrund im Laufe der Nach alles passiert und ob nicht was nettes dabei ist – je nachdem, was man vorgeben möchte.

Neben dem eher technischen Aspekten ist natürlich auch eine Komposition gefragt. Passt die Form des Deepsky-Objekts zum Vordergrund, wie harmonieren die Farben? Wo setzte ich den Nebel oder die Galaxie hin – neben den Vordergrund oder direkt darüber? Querformat oder Portrait? Gibt es eine Linienführung durch die Konturen des Vordergrunds, wie passt der Bildausschnitt am besten?

Vordergrund: Wie und damit wann wollt ihr den aufnehmen? In der blauen Stunde, mit Mondbeleuchtung, zum Zeitpunkt an dem das Deepsky-Objekt genau dort steht?

Auch noch Planung: Die Anreise. Die kann bei widrigen Wetterbedingen durchaus auch zu früh sein – wenn man halb erfroren ist wenn der Moment da ist, ist’s auch doof. Ansonsten rechnet ordentlich Puffer ein bevor Hektik ausbricht und man garantiert irgendeine Einstellung versemmelt. Wollt ihr im Dunkeln zum Aufnahmeort gehen oder lieber tagsüber und dort die Nacht abwarten? Sicherheit geht vor – im Dunkeln in unbekanntem Gelände rumklettern ist keine gute Idee! Location-Scouting schadet nie – vielleicht ist die Sichtlinie doch nicht exakt so wie in der App, Wege unpassierbar o.ä. Wenn ihr alleine unterwegs seid, kann das Smartphone überlebeswichtig werden und sollte zumindest voll geladen sein – wie ist die Netzabdeckung im Zielgebiet? Weiß jemand Bescheid wo ihr euch rumtreibt falls ihr euch bis dann und dann nicht zurückmeldet?

Packen. Trivial aber wer hat nicht schon mit leeren Akkus oder sonst einer Heldentat vor dem schönsten Motiv gestanden? Also überlegt euch was ihr an Material braucht, checkt Speicherkarten und Akkus. Ist die Stativplatte auch an der Kamera, das Kabel des Intervallauslösers noch in der anderen Tasche usw.
Passende Klamotten – wie ist das Wetter? Stirnlampe geladen, Ersatzbatterien dabei?
Andererseits auch nicht alles in die Tasche werfen aus Angst was zu vergessen – muss man alles durch die Gegend schleppen!

Aufnahmen

Alles aufgebaut, Kameraeinstellungen angepasst (alles manuell, Bildstabi aus, RAW und nicht etwa JPG eingestellt usw.), Akku gecheckt – prima. Vor der eigentlichen Aufnahme nochmal den Fokus kontrollieren! Der kann sich versehentlich verstellt haben oder durch Temperaturdrift – z.B. weil die Linse aus dem warem Auto heraus inzwischen deutlich abgekühlt ist und manche Linsen sind da empfindlich.

Vordergrund

Je nach Helligkeit tut es ein normaler Singleshot mit Autofokus und automatischer Belichtung. Das klingt dann aber nach Aufwand in der Bearbeitung, um den Vordergrund einen Nachtlook zu verpassen – nicht so mein Ding.
Also ist’s ziemlich finster und wir müssen kräftig belichten, was schnell mit zu viel Bildrauschen verbunden ist. Da hilft in einfachen Fällen die Langzeit-Rauschreduktion, die quasi intern ein „Dark“ aufnimmt, auf dem nichts sein sollte und das, was halt doch da ist, vom echten Bild abzieht. Nachteil: Das dauert nochmal so lange wie das echte Bild und dazu ein wenig Rechenzeit. Da wir in Sachen Belichtungszeit idR. nicht limitiert sind (außer es bewegt sich im Vordergrund was), kann man auch länger – bis zu Minuten – aufnehmen. Dadurch wird der Himmel mit Bewegung auch weicher/homogener und lässt sich meist besser maskieren. Ein wenig Abblenden kann man sich zuliebe der Abbildungsqualität an der Stelle auch gönnen.
Alternativ bzw. eher besser als so eine Langzeitbelichtung ist es, mit einigermaßen normalen Einstellungen bezüglich Belichtungszeit und gerne mit höherer ISO-Einstellung z.B. ein Dutzend identische Bilder machen. Wenn man Zeit hat auch mit Langzeit-Rauschreduktion. Die legt man dann z.B. in Photoshop übereinander (ausrichten muss man nichts bei fixem Vordergrund und Stativ) und berechnet den Mittelwert über alle Bilder. Da ein Großteil des Rauschens zufällig verteilt ist und nicht bei jedem Bild gleich auftritt, wird das durch die Mittelung deutlich reduziert. Hot oder cold Pixel, die immer die gleichen Pixel leuchten (oder eben nicht) lassen, lassen sich davon natürlich nicht beeindrucken. Dafür haben wir aber die Langzeit-Rauschreduktion.
Wie macht man das in Photoshop? Alle Bilder aus Lightroom als Ebenen öffnen (markieren, rechter Mausklick „in Photoshop als Ebenen öffnen“), Ebenen in PS markieren und im Optionsmenü mit rechtem Mausklick „in Smartobjekt konvertieren“ auswählen. Alternativ direkt in PS unter „Datei“ „als Smartobjekt öffnen“ – so muss man bei RAWs allerdings die Entwicklungseinstellungen für jedes Bild bestätigen. Letztlich unter „Ebene“ – „Smartobjekte“ und „Stapelmodus“ Median oder Mittelwert wählen. Auf Hintergrundebene reduzieren, fertig. Naja – Bearbeitung natürlich noch 😉

Der Himmel – Deepsky-Objekte

Bis hierhin war’s ja keine „Kunst“ und ziemlich normale Knipserei. Für die Aufnahme bleibt es eigentlich auch so einfach außer dass wir die Kamera jetzt auf einer Nachführung haben sollten und die richtig laufen muss. Das kann ich hier nicht im Detail behandeln – da gibt’s aber massig gute Tutorials auf YT etc. Jedenfalls können wir unabhängig vom Sensor den ISO-Wert niedrig halten und auch etwas Abblenden. Wie der native ISO-Wert bzw. die meist 2 Stufen in Sachen ISO-Invarianz von der konkreten Kamera abhängen, kommt es beim Abblenden auf das jeweilige Objektiv an. Grundsätzlich sinkt die Vignettierung (dunkle Ecken) und auch andere Abbildungsfehler werden kleiner, bevor es in der zweiten Hälfte der Blendenreihe auch wieder schlechter wird. Die Tiefenschärfe steigt, was erstmal egal ist da ja eh alles verdammt weit weg ist – leichte Fokussierfehler werden aber dennoch gemildert. Typischerweise wird man mit Belichtungszeiten von 30 s bis ca. 3 min arbeiten. Nur 30 s bei langen Brennweiten und kleiner Montierung bzw. wenn nicht gut eingenordet wurde. Auf 1-2 min sollte man schon kommen, bei hellem Himmel ist man da auch schnell von den Helligkeit limitiert, auch wenn das System mehr hergeben würde. Normalerweise isz im manuellen Modus bei 30 s schluss – länger geht es im Bulb-Modus und mit externem Trigger.

Belichtung:
Andere Welt als normale Tageslicht-Singleshots!
Wir müssen nichts mit den einzelnen Bildern („Subs“) machen – es kommt hier primär auf die Gesamtbelichtungszeit an und die Subs können ungewohnt „dunkel“ sein bzw. sollten es sogar sein.
Was auf gar keinen Fall passieren darf, sind „ausgebrannte“ Sterne oder sogar Nebelbereiche (wie das helle Zentrum vom Orionneben) – also Stellen, die heller als der maximale digitale Wert auch nur eines einzelnen Farbkanals sind. Da ist dann unwiderruflich Information verloren. Bei den kleinen Sternpunkten kommt man mit dem Histogramm der Kamera nicht weit – der kleine Bereich wird oft nicht erfasst/angezeigt und obendrein ist das Histogramm so ein bisschen eine Schätzung. Es wird ja im Hintergrund das RAW mit Standardwerten entwickelt und aus dem locker 2 Bit geringer aufgelöstem File die Verteilung der Helligkeitswerte angezeigt – das sagt uns leider nicht 1:1 die Werteverteilung im RAW.
Dann muss man sich überlegen, was der Peak im Histogramm einer Aufnahme des Nachthimmels zeigt: Die Helligkeit, die am meisten im Bild vorkommt und das ist idR. der Himmelshintergrund. Alles links davon ist dunkler als der Nachthimmel und interessierte uns eher nicht – ist der Peak in der Mitte oder gar rechts im Histogramm, reservieren wir viel Helligkeitsauflösung / dynamic range für Dinge, die wir nicht brauchen. Uns interessieren die Stellen, die heller und wenn auch nur ganz wenig heller sind als der Himmelshintergrund und an der Stelle brauchen wir alle Auflösung!
Jedenfalls: Das Histogramm der Subs muss gehörig Abstand zum rechten Rand haben und sich nur geradeso vom linken lösen!

Korrekturframes
Was ich zuvor beschrieben habe, sind sogenannte „lights“ – die enthalten die eigentlichen Daten mit allen möglichen Fehlern. Abbildungsfehler wie Vignettierung und auch Staubflecken auf Linse und Sensor.
Da gibt es elegante Abhilfe mit „Flats“, die der Stackingsoftware ermöglichen die Fehler rauszurechnen. Dazu nimmt man bei gleicher Blende, unverändertem Fokus und ohne das Objektiv zwischenzeitlich abgenommen zu haben etliche Bilder einer gleichmäßig beleuchteten Fläche auf – ISO-Einstellung und Verschlusszeit kann abweichen. Dazu gibt es spezielle und teure Flatboxen. Oder ein Stück etwas dickeres Papier, das man bündig auf das Objektiv legt in einer einigermaßen gleichmäßig beleuchteten Umgebung. Eventuell tut es auch der blaue Tageshimmel oder ein Monitor mit gleichmäßiger Helligkeit über die ganze Fläche. Ich nutze hier oft ein IPad mit einem grauen JPG das ich im Vollbildmodus anzeigen lasse. Belichtung mit Histogramm-Peak ca. linkes Drittel und im Serienbildmodus ein paar Dutzend Bilder machen – am besten ist es so dunkel, dass die Belichtungszeit bei um die 0,5 s liegt und man vollführt mit der Kamera während der Aufnahmen eine 360° Drehung. Das mittelt Ungenauigkeiten bei derartigen Bastellösungen heraus – übrig bleiben die Vignettierung des Objektivs und alle möglichen Flecken im Strahlengang. Empfehlung: Machen! Man muss sie am Ende ja nicht verwenden aber wenn man zuhause dann den fetten Sensorfleck auf allen lights entdeckt und keine Flats gemacht hat, ist der Ärger groß.
Gegen verschiedene Arten des Rauschens helfen theoretisch Bias- und Dark-Aufnahmen – die müssen aber u.a. zwingend bei gleicher Sensor-/Kameratemperatur aufgenommen werden wie die Lights. Das ist bei stabil gekühlten Astrocams kein Problem – bei DSLR/DSLM aber schon und daher kann man die Aufnahmen meiner Empfehlung nach auch sein lassen!

Bearbeitung – Stacking

Nicht meine Kernkompetenz, schaut bei Frank Sackenheim auf YouTube rein – der hat Ahnung 😉 Hier eher meine Quick & Dirty Variante, um mit Siril einigermaßen schnell akzeptable Resultate zu bekommen. Zu Einrichtung und grundlegender Bedienung müsst ihr bitte auch an anderer Stelle schauen.

Aber was bringt uns das Stacking denn eigentlich?

Durch die Kombination vieler Einzelbilder kann ein Bild berechnet werden, das eine höhere Bittiefe („Helligkeitsauflösung“) und ein besseres Signal-Rauschverhältnis aufweist. Durch die Atmosphäre liegen die Helligkeitsunterschiede von Deepsky-Objekten sehr dicht zusammen und oft auch dicht beim Himmelshintergrund. Es fehlt Kontrast und zwar viel mehr, als man mit dem Kontrastregler der Bildbearbeitung herstellen könnte. Man muss die Daten regelrecht auseinanderziehen („stretchen“) und das geht wegen der viel höheren Auflösung des gestackten Bildes ganz ordentlich – in einem Einzelbild wären dafür einfach keine Daten da.
Fotografiert ihr in JPG hat das digitalisierte Bild nur 8 bit (einige Modelle bieten 10bit HEIF) pro Farbkanal – bei drei Farben spricht man dann auch von 24 bit, nicht dass es zu einfach wird. Jedenfalls für jeden Farbkanal von nix bis ganz hell stehen nur mickrige 256 Werte zur Verfügung – das reicht in der Kombination zwar für 16,7 Millionen Farben und ist völlig ausreichend für unser Auge. Aber nicht für die Bearbeitung, wenn die eigentlichen Bildinformationen erstmal nur in einem Teil des Spektrums konzentriert sind!
Bei 14 bit RAW sind das über 16.000 Werte und somit viel mehr Raum für die Bearbeitung! Und mit dem Stacking bekommen wir mit 32 bit knapp 43 Millionen feinste Abstufungen pro Kanal. Da braucht’s dann spezielle Dateiformate wie das Anfang der 1980er von der NASA entwickelte und in Astrokreisen weit verbreitete „FITS“.
Weiterer Effekt des Stackings: Bei der Verarbeitung können die Bilder pixelgenau analysiert und statistische Ausreißer pro Bild ignoriert werden (nicht das ganze Bild!) – sprich Satelliten- und Flugzeugspuren u.ä. verschwinden wie von Geisterhand und zumindest wegen der Starlinkspuren muss man sich nicht über Musk aufregen.

Mein Workflow

  1. Homeverzeichnis festlegen – Siril erwartet die jeweiligen Files standardmäßig in den Unterordern lights und flats und da steckt man die unangetasteten RAWs rein.
  2. Ich nutze einfach die mitgelieferten Standardscripts (bzw. mit leichten Anpassungen) – für normale DSLR/DSLM sind die mit OSC („one shot color“) die Richtigen. Preprocessing_without_DBF wenn ihr nur Lights verarbeiten möchtet, für lights und flats müsst ihr das Script OSCC_Preprocessing anpassen und die Befehle für Darks und Bias rauswerfen
    –> Je nach Größe und Anzahl der Bilder und Leistungsfähigkeit des Rechners kann das schon ein wenig dauern 😉
  3. Result-Datei in GraXpert laden (oder aus Siril aus aufrufen wenn ihr es eingebunden habt),
    • unten Stretchwert wählen so dass man auch was sieht (das Stackingergebnis ist linear und man sollte so nur helle Sterne sehen – sonst ist das „schwarz“!)
    • gegebenenfalls beschneiden wenn Vordergrund mit drauf ist – da kommen die Algorhitmen nicht gut mit klar.
    • Hintergrundentfernung wählen (AI-Methode, Smoothing 0,5) und meist macht es dann ein wenig „Boah!“ weil etlicher Mist in der Aufnahme (primär Helligkeits-/Farbgradient) wie von Zauberhand verschwindet. Gerne mit Werten und anderen Methoden (RBF) mit teils manuell korrigierten Raster rumspielen.
    • Entrauschen – wenn deutlcihes Rauschen da ist, nutze ich das mit mittlerer Einstellung ab und an hier
    • Speichern – „Bild“ als 32 bit FITS für die Weiterverarbeitung – vielleicht „GraXpert“ im Dateinamen ergänzen damit man später weiß mit was man es zu tun hat
  4. Zurück nach SIril und Bild laden -> alles schwarz – Hilfe!! siehe oben, ist normal! 😉
  5. rechts unterhalb des Bild den Anzeigemodus von linear auf Auto-Stretch stellen
  6. Im Menü „Werkzeuge“ – „Astronometrie“ – „Astronomische Lösung (Plate Solving)“ – damit können wir die Farbkalibrierung perfekt hinbekommen, da Siril „weiß“ wie die Objekte wirklich aussehen. Objekt links oben in der Suche eingeben, Koordinaten werden angezeigt und auch Aufnahmedaten aus dem File gelesen. Mit Glück und vor allem wenn das Objekt in der Bildmitte ist macht es nach O.K. „Klick“ und alles ist gut. Falls nicht sucht z.B. in Stellarium einen Stern der in der Mitte eurer Aufnahme ist und gebt den ein.
  7. Dekonvulotion unter Filter – hab ich nicht wirklich verstanden und lasse es sein 😉 Man kann die Form der Sterne verbessern und das Bild schärfen – im Prinzip alles was bis dahin im Aufnahmeprozess an Fehlern reingekommen ist wieder entfernen
  8. Unter Bildbearbeitungen eventuell „Grünrauschen entfernen“
  9. Zwischenspeichern mit neuem Namen
  10. Wenn ihr Starnet installiert und in Siril eingebunden habt unter Bildbearbeitung „Sternbearbeitung“ wählen und dort „StarNet Sternentfernung“ (Lineares Bild vordehnen und generiere Sternmaske aktiviert) -> zwei neue Dateien, die ohne Sterne wird geladen
  11. Stretchen 1 – Starless-Bild
    • Anzeige wieder auf linear
    • Bildbearbeitung – Streckungen – Histogrammtransformation
      • die einfache Variante ist der Klick auf das Zahnrad rechts, das eine automatische Streckung vornimmt. Das Häkchen bei Vorschau muss gesetzt sein und an der Stelle ist es meist auch schon gut.
      • Sonst Zoom ins Histogramm mit Zahleneingabe links oben oder klick auf das + wenn ihr links nicht zwei „Schieber“ seht. Spielt hier vorsichtig mit der Position, ihr merkt schnell wie sie funktionieren. Klassisch darf die Histogrammkurve rechts und links nicht abgeschnitten sein – sonst gehen Daten verloren.
      • Kann man theoretisch auch für RGB einzen machen – „Anwenden“ nicht vergessen
    • Bildbearbeitung – Streckungen – verallgemeinerte hyperbolische Streckungstransformation
      • Zoom eventuell wieder auf 1 zurückstellen
      • Mit Wahl des Symmetriepunktes (mit Maus Bereich aufziehen und auf Pipettensymbol klicken) und den Schutzpunkten kann man nun recht präzise steuern, welchen (engen) Helligkeitsbereich man wie stark (Faktor und Intensität) bearbeiten möchte
      • hat man z.B. die hellen Partien herausgearbeitet -> anwenden
      • nächsten Helligkeitsbereich bearbeiten und wieder anwenden
      • Man kann auch für einen Helligkeitsbereich versuchen, die Farben etwas herauszuarbeiten, indem man auf die Farbpunkte klickt und vorsichtigt regelt. Sättigung wenn man oben rechts auf Sättigungsstreckung stellt.
    • Bildbearbeitung – Filter – Kontrastbegrenzte adaptive Histogrammangleichung -> zurückhaltend Kontrast erhöhen
    • Speichern unter neuem Dateinamen
  12. Stretchen 2 – Starmask_Result … öffnen
    • Anzeige linear – Histogramm-Transformation
    • Man kann wieder die Automatik bemühen aber die machts meist ziemlich hell – alternativ schiebt man den mittleren Regler nach links, erhöht den Zoom und schiebt wieder bis man einen netten Sternenhimmel hat aber eben nicht alles voll mit weißen Punkten ist
  13. Bilder zusammensetzen
    • Sternbearbeitung – Stern-Neuzusammensetzung
    • links das sternlose Nebel-/Galaxienbild laden, rechts die Sterne
    • nochmal stretchen und jeweils anwednen bis die beiden Bildelemente harmonieren
  14. Speichern als FITS und als TIF und im zweiten Schritt 16 bit auswählen

Himmel und Vordergrund zusammenfügen

Wir öffnen beide Bilder in Photoshop als Ebenen, löschen beim Vordergrundbild des Himmel und es erscheint der gestackte Himmel – fertig. Naja – schön wäre es 😉

Maskierung

Manchmal geht es aber tatsächlich so einfach – wenn der Himmel sich im Vordergrundbild so darstellt, wie die KI von Photoshop trainiert wurde. Dann markieren wir mit Linksklick die Ebene des Vordergrunds (die sinnvollerweise an oberster Stelle steht), wählen im Menü unter „Auswahl“ einfach „Himmel“ aus und löschen die Auswahl (oder erstellen eine neue Ebene aus der Maske die wir ausblenden – man weiß ja nie). Oft wird damit aber ein Teil des Vordergrund gelöscht und sei es nur zu ein paar Prozent. Daher immer reinzoomen an die Grenze und genau kontrollieren, ob das wirklcih O.K. ist! Falls nicht einfach das Löschen Rückgängig machen.

In einigen Fällen geht es schnell, die Himmelsmaske mit Zauberstab oder Schnellauswahlwerkzeug zu verändern (Shift/Strg bzw. Option bei Mac für hinzufügen/subtrahieren). Dann gibt es sicher noch abgefahrene Maskierungstechniken, von denen ich keine Ahnung habe aber ehrlichgesagt greife ich dann oft zum guten alten manuellen maskieren. Mit dem (Polygon-) Lasso bei klar definierten Kanten wie einem Observatorium oder direkt dem Radiergummi mit leicht weicher Kante. Das alles stark reingezoomt.

Ausrichtung

Der gestackte Himmel „muss“ genauso über dem Vordergrund erscheinen, wie er in der Realität auch steht. Sonst verlassen wir den letzten Rest Fotografie, bei der wir mit dem ganzen Aufwand nur die „Unzulänglichkeiten“ der Kamera kompensieren, und macht Kunst oder wie man es auch nenenn mag. Kann man machen wenn man es auch dazuschreibt, ansonsten halte ich das für Betrug an den Zuschauer:innen. Gefällt einem die Komposition nicht, hat man schlecht geplant und muss nochmal hin – ganz einfach!

Gleiche Kamera, gleiches Objektiv – dann haben wir vom Abbildungsmaßstab schonmal kein Problem, bleibt die Position. Ganz elegant finde ich ein drittes Bild als Singleshot mit Ausrihctung wie das Vordergrundbild mit dem Himmel als Vorlage. Man reduziert die Ebenendeckkraft und sieht so beide Bilder gleichzeitig und kann den gestackten Himmel prima verschieben und drehen bis er Deckungsgleich ist. Alternativ schauen wir in Stellarium oder PlanIt! und richten das ganze korrekt aus.

Abgleich/Bearbeitung

Vom Vordergrund haben wir wie oben beschrieben schon ein rauscharmes Bild aber weiter bearbeitet war da noch nichts. Haben wir ein neutral weißes Observatorium o.ä. ist ein guter Ausgangspunkt für den Farbabgleich das eben genau farbneutral abzustimmen. Nach belieben etwas abstimmen, so dass die Farbe harmonisch zum Himmel passt und ein wenig Kontrast und Klarheit rein und alles andere so, dass die Beleuchtung zum Himmel passt. Ein stockdunkler Himmelshintergrund (der eh unrealistisch ist) und ein taghell erscheinender Vordergrund passt halt einfach nicht. Da gibt es unter Bild->Korrekturen vor allem die Gradationskurve und wer’s lieber wie von LR gewohnt mag: Filter->Camera-RAW.

Ähnliches gilt für das gestackte Bild vom Himmel – mit Gradationskurve, Lichter leicht absenken, Klarheit etc. nach Geschmack steuern und mit Sättigung zurückhaltend sein. Man kann auch mit Luminanzmasken bestimmte Bereiche isoliert ein wenig steuern – das „grobe“ sollte aber beim stretchen schon richtig gemacht worden sein. Rauschreduktion/schärfen ist hier auch noch ein Thema – ich nutze Topaz DeNoiseAI. Da gibt es auch andere Tools aber die klassischen Geschichten wie unscharf maskieren u.ä. sind angesichts der Leistungsfähigkeit von KI-Tools eigentlich „out“. Hilreich können auch fertige Aktionen wie die „Astronomy Tools“ sein oder ein PlugIn wie „AstroPanel“ sein. Kosten aber auch wieder (ein wenig) Geld, brauchen Einarbeitung und sehe ich, wenn man wirklich das i-Tüpfelchen auch noch optimieren möchte.

Soo – jetzt aber wirklich: FERTIG 🙂

Deepscape-Zeitraffer Vorschau

Das ganze ist noch „Work in Progress“, daher nur eine schnell zusammengestellte 1080p Vorschau – mit ein paar einfacheren Szenen vom Vollmond dabei. Bearbeitet natürlich mit LRTimelapse (affiliate Link) – das sukzessive Ämdern einzelner Belichtungsparameter sowie Deflicker und die Mittelung von Frames beim Rendern der einzelnen Zeitraffersequenzen ist auch hier Gold wert 🙂
Mehr zu Zeitraffer gibt’s unter https://timelapsevideo.eu/