Guide: En liten ljussammlingguide

Metoder för astrofotografering
Locked
User avatar
glappkaeft
Posts: 469
Joined: 2011-02-26 12:36:24
spamtest: JA
Location: Linköping
Contact:

Guide: En liten ljussammlingguide

Post by glappkaeft »

Del I – Lite om signaler
Bilderna som man tar vid digital astrofotografering kan ses som en två dimensionell analog signal som sedan samplas digitalt (oftast med mycket långa intervall). För att kunna presentera en bra bild eller göra en exakt mätning så är en av grundförutsättningarna att bilden har ett bra signal-till-brusförhållande (betecknat S/B, eng.: SNR) och att vi kan mäta signalen med god precision.
Signaler och brus.

Tyvärr så finns det i praktiska sammanhang inga signaler utan brus. Värt att nämna är att brus i denna betydelse inte är samma sak som det man menar när man använder ordet i dagligt tal. Brus i matematisk mening kan förenklat sägas vara osäkerheten i mätningen av en signal.

Inom astrofoto så är i princip alla relevanta signaler Poisson-fördelade statistiska processer. Det som kännetecknar Poisson-fördelade signaler är att ett antal händelser (t.ex. enskilda uppmätta fotoner) inträffar med en viss genomsnittlig takt och att tidpunkten när en enskild händelse inträffar är slumpmässig och oberoende av de andra händelserna. Detta gör att en signal som har en styrka med ett medelvärde på 10 kan mätas upp till 7 vid ett tillfälle och 14 vid ett annat. Medelavvikelsen (betecknas med sigma - σ) mellan det egentliga värdet (som är okänt) och det uppmätta värdet är bruset.

Medelavvikelsen på bruset hos denna typ av signaler är endast beroende av takten (eller storleken, vilket i en bild är pixelns värde = takt*tid). Mer noggrant så beror bruset på kvadratroten av takten. Brus som beter sig på detta sätt kallas Gaussiskt-brus.
Detta leder det trevliga sambandet att även S/B bara beror på signalens styrka (Image) vilket ger oss två grundläggande samband som vi kommer att ha nytta av.

Som ett exempel så har en signal på 100 ett brus med en medelavvikelse på 10 och en signal på 25 har ett brus på 5. Den större signalen har således ett signal-till-brusförhållande på 100/10 = 10 och den svagare signalen 25/5 = 5. Som vi ser hade vi direkt kunnat roten ur signalen istället.

S/B förhållandet stämmer bättre överens med det vardagliga användandet av ordet brus då ett lågt S/B förhållande ger ett ”brusigt” intryck. Att ha ett bra S/B-förhållande blir därför viktigt när man bildbehandlar då syftet med de flesta bildbehandlingsoperationerna är att förstärka svaga signaler i bilden. Det går då inte att samtidigt undvika att förstärka bruset som finns i dessa svaga signaler. Det gäller både enkla operationer (exempelvis kontrastkurvor) och mer avancerade algoritmer (ex. smart uppskärpning).

Att addera bruskällor
Om man adderar (eller subtraherar) två oberoende signaler (bruskällor) så tar deras brus till viss mån ut varandra. Bruset i Poisson-fördelade signaler som adderas eller medelvärdesbildas beter sig som:
Image
Eller alternativt (då Image )
Image

Som ett exempel så kan vi titta på vad som händer om vi adderar två brus där den ena har dubbelt så stor medelavvikelse som den andra, de sammanslagna bruskällorna får ett brus på Image.

På grund av detta så ger svaga bruskällor bara ett litet tillskott till det totala bruset om de kombineras med starkare brus. Notera att detta bara gäller om man adderar eller medelvärdesbildar, andra sätt att slå ihop signaler kan ge andra resultat (se stackningsalgoritmer nedan).
Patrik Holmström - Uppsala Amatörastronomer
User avatar
glappkaeft
Posts: 469
Joined: 2011-02-26 12:36:24
spamtest: JA
Location: Linköping
Contact:

Re: En liten ljussammlingguide

Post by glappkaeft »

Del II – pixelvärden och kalibrering

Vad representerar ett pixelvärde egentligen?
En digital kamera är en solfångare som där varje enskild pixel konverterar infångade fotoner till elektroner och sedan mäter hur många elektroner som samlats in. Elektronerna mäts och översätts till ett pixelvärde m.h.a. en ”förstärkningsfaktor” (denna styrs av ISO på DSLR och av gain på astrokameror).

När vi läser ut pixelvärden från kameran (”lights”) så är vi bara intresserade av en enda sak, att kunna mäta fotonerna från himmelen så bra som möjligt. Detta brukar kallas för foton-/ljussignal men tyvärr så följer det med andra signaler. Två av dessa beror på hur digitala sensorer fungerar, mörkströmsignal (”dark current”) och utläsningssignal (eng.: offset alt. bias). Om dessa hade var helt uniforma på bildsensorn så hade det inte stört nämnvärt men mängden mörkström och utläsningssignal varierar per pixel vilket stör den fotonsignal som vi försöker mäta eller göra en bra bild av.

Utöver det så stör det optiska systemets olika defekter (coma, bildfältskrökningar,…) våra möjligheter att avbilda himmelen. I efterhand så kan vi inte enkelt korrigera för de flesta av dessa effekter men när det gäller effekter som minskar den mängd ljus som träffar sensorn (vigenetering, dammkornsringar, m.m.) så går det bra. Anledningen att det är enkelt att mäta upp alla tre av dessa effekter genom att ta kalibreringsbilder.

Vad händer när vi kalibrerar
Utläsningssignalen (pixlarnas individuella ”nollnivå”) är oberoende av exponeringstiden och vi mäter upp den genom att ta bias-bilder, mörka (stängd slutare/lock på/o.s.v.) exponeringar med så kort exponeringstid som möjligt, vilket eliminerar både mörkströms- och fotonsignalen i kalibreringsbilden så att vi bara får utläsningssignalen kvar.

Mörkströmssignalen (ett slags elektronläckage i pixlarna) är linjär med exponeringstiden så vi kan modellera den genom att ta darks. Som man kan anta från namnet så är även detta en mörk exponering men här tar vi en mörk bild med samma exponeringstid som den exponering vi vill kalibrera (ingen fotonsignal, bara utläsning/mörkström). Då dark-bilden även innehåller utläsningssignalen så slipper vi i normalfallet att ta bias-bilder.

Det går också att bra att ta darks med ungefär samma exponeringstid som den bild man vill kalibrera men då måste vi först kalibrera dark- och lightbilderna med bias och sedan skala dark-bilderna till rätt exponeringstid (ex. 5 min -> 6 min gör att vi multiplicerar det biaskalibrerade datat med 6/5=1.2). I samtliga fall (bias, darks, skalade darks) kalibrerar vi genom att subtrahera kalibreringsbilderna från originalbilden.

Flats, som används för att kompensera för ojämnt belysa sensorer, tar vi genom att fota en jämnt belyst yta. Till skillnad från dark- och biasbilder så kan vi här bestämma exponeringstiden själva, de två faktorer som styr är att vi på ena handen vill ha en så stark signal som möjligt (för att minimera bruset) och på andra handen vill vi undvika att hamna i sensorns olinjära område. Praktisk så betyder det oftast att man vill att maxvärdet i flatbilden skall ligga ungefär 1/3-1/2 från maxvärdet. Flats bör kalibreras med darks (ev. skalade, i vilket fall vi även behöver bias), sedan normaliserar man flatsbilden så att maxvärdet blir 1 och dividerar pixel för pixel med en light-bild som redan kalibrerats med darks/bias. Resultatet blir att de delar av bilden som är dåligt belysta förstärks.

Effekten av att kalibrera bort oönskade signaler
Notera att vi inte på något sätt har modellerat mörkströms- och utläsningsbruset utan endast signalerna. Resultatet av att kalibrera bilderna är att vi får fram den rena fotonsignalen. Bruset i den kalibrerade bilden har dock inte minskat, tvärtom! Utöver fotonbruset så har vi fortfarande kvar det ursprungliga mörkströms-/utläsningsbruset och vi har dessutom adderat bruset från kalibreringsbilderna.

Det är således viktigt att kalibreringsbilderna inte innehåller för mycket brus. I fallet med flats så har vi till exempel foton-, mörkströms- och utläsningsbrus från de flats vi tog samt utläsnings- och mörkströmsbrus från de bias och darks vi använde för att kalibrera flatbilderna. I de flesta fall har bias/darks mycket låg eller åtminstone lägre signal jämfört med fotonsignalen vilket också gör att deras brus ligger betydligt lägre än fotonbruset. Flats i sin tur har hög signal vilket ger bra S/B-förhållande vilket är viktigt eftersom vi med flats genomför en division efter att först gjort en serie subtraktioner av bias/darks. Det bör nämnas att det även praktiskt är svårare att ta riktigt bra flats jämfört med bias/darks men även hyfsade flats hjälper.

Om man tar kalibreringsbilder med hyfsat kvalité så påverkas alltså inte den färdigkalibrerade bildens S/B-förhållande speciellt mycket.
Patrik Holmström - Uppsala Amatörastronomer
User avatar
glappkaeft
Posts: 469
Joined: 2011-02-26 12:36:24
spamtest: JA
Location: Linköping
Contact:

Re: En liten ljussammlingguide

Post by glappkaeft »

Del III - Att förbättra S/B

Det finns bara två sätt att förbättra S/B-förhållandet, antingen ökar man signalen och/eller så minskar man bruset. Då det enda sättet att minska bruset i Poisson-fördelade signaler är att minska signalen, så vi kan vi bara styra S/B med genom att modifiera de olika signalerna som använts för att göra bilden. I princip gör vi det genom att öka de signaler vi vill ha (kalibreringsbilder och fotonsignal) samt minska de signaler vi inte vill ha (mörkström-/utläsningssignal).

Exponeringstid
Det mest uppenbara sättet att öka fotonsignalen är att samla fler fotoner genom att ta längre exponeringar. Vi kommer samtidigt samla mer mörkström men förhållandet mellan foton-mörkströmsignalen kommer vara konstant då båda signalerna är direkt beroende på exponeringstiden. Som vi sett tidigare så ökar S/B med kvadratroten av signalen, i detta fall så kan vi också säga att S/B ökar med kvadratroten av exponeringstiden.

Detta stämmer bara om vi ignorerar utläsningssignalen men längre exponeringstider gör dock att den redan låga utläsningssignalen inverkar mindre och mindre då den är tidsoberoende. På tillräckligt långa exponeringar så är bruset från utläsningssignalen försumbar i förhållande till foton- och mörkströmssignalernas brus.

Vi stöter dock väldigt snabbt på praktiska problem. Att förbättra S/B med en faktor 2 ger fyra gånger så lång exponeringstid. En eller ett par sådana ökningar ger orealistiskt långa exponeringstider där t.ex. alla/många pixlar i sensorn blir mättade.
När det gäller flats så vill vi istället använda korta exponeringstider för att minimera mörkströmsbruset. Tar man sky-flats så kan exponeringstiderna dra iväg när det skymmer vilket bör undvikas om det går.

Stackning
Resultatet av att stacka exponeringar brukar oftast liknas vid att ta en lång exponering med de sammanlagda exponeringarnas slutartid inklusive att S/B ökar med kvadratroten av exponeringstiden. Detta är i princip sant så länge som man inte använder för många korta exponeringar.

Anledningen till detta är att både foton- och mörkströmsignal endast beror av tiden, bara utläsningssignalen (som typiskt är låg) beror på det antal exponeringar som stackas. Bara om man tar för många korta exponeringar i förhållande till signalen så spelar antalet exponeringar roll. Det gör att filter som har låg signal (som H-alfa) eller objekt med låg ljusstyrka kan behöva längre exponeringstider för att få ett fullgott resultat när man stackar.

Ett alternativt sätt att se på det är att S/B ökar med kvadratroten av antalet stackade bilder. Speciellt när det gäller kalibreringsbilder så är detta sätt att se på saken användbart då stackning är det enda sätt man kan minska bruset med då exponeringstiderna styrs av externa faktorer.

I praktiken så finns det ett antal fördelar med att stacka en serie av kortare exponeringar. Effekten av guidningsfel och följningsfel minimeras och konsekvenserna av att enskilda bilder saboteras av vindpustar, kosmiska strålar, sattelitspår och andra fel blir mindre med kortare exponeringar.

Stackning gör att vi i praktiken verkligen kan utnyttja den S/B förbättring som hög signal innebär. Dock finns det även här praktiska gränser, en dubbling av S/B jämfört med en 30 minuters bild kräver 2 timmars exponeringstid. Nästa dubbling ger 8 timmar och en ytterligare dubbling skulle resultera i 32 timmars exponeringstid (vilket man faktiskt ser ibland). Frågan är bara om man tycker att det är värt att ta en 32-timmars bild när man istället kunde ha tagit fyra 8-timmars bilder (eller 16 två-timmars bilder).

Stackningsalgoritmer
De flesta matematiska S/B-sammanbanden som jag presenterat gäller bara om man adderar eller medelvärdesbildar de stackade bilderna. I praktiken så innehåller alla bilder mer eller mindre avvikande pixelvärden på grund av sattelitspår, kosmiska strålar, heta/döda pixlar och andra defekter. Det enklaste sättet att hantera dessa problem är att använda medianvärdet när man stackar bilderna vilket effektivt rensar bort avvikande värden. Tyvärr så resulterar detta i att bruset inte reduceras lika bra.

En kompromiss är stackningstekniker som Sigma-clip och SD mask, som tar de alignade bilderna och jämför position för position och slänger bort pixelvärden som avviker för mycket från de andra. Det resulterar i att vi får fördelarna från både medelvärdes- och medianmetoderna och ytterst lite av nackdelarna. Dessa metoder utför olika typer av statisk analys på bildmaterialet så de fungerar bättre ju fler bilder man använder. Sigma-clip, som nog är den matematiskt bästa metoden, bör t.ex. ha minst sju bilder för att fungera fullt ut.
Patrik Holmström - Uppsala Amatörastronomer
User avatar
glappkaeft
Posts: 469
Joined: 2011-02-26 12:36:24
spamtest: JA
Location: Linköping
Contact:

Re: En liten ljussammlingguide

Post by glappkaeft »

Del IV - Att matcha teleskop och kamera

På utrustningssidan så är det mest grundläggande sättet att förbättra signalen att matcha teleskop och kamera. Oavsett budget och användningsområde så finns det två faktorer som man bör titta på när man väljer utrustning. Dessa är pixelskalan (synfält per pixel) och enskilda pixlars ljussamlande förmåga. Dessa två faktorer motverkar varandra, bra pixelskala ger god upplösning men sämre ljussamlande förmåga och tvärtom.

Välja pixelskala
För många år sedan så kom forskarna Nyqvist och/eller Shannon (olika åsikter finns :) ) på att om man vill återge en analog signal (t.ex. himmelen) digitalt så måste man sampla den med dubbla upplösningen jämfört med den analoga upplösning som man vill kunna återge. Vid astrofoto så är det seeingen (atmosfärens suddningseffekt) och optiken som sätter den undre gränsen för upplösningen. I de flesta fall så är optikens upplösning bättre än vad seeingen tillåter. Undantaget är mindre teleskop, på en höft skulle jag säga att gränsen går vid en apertur på 10-20 cm beroende på hur bra seeing man har, optisk design/kvalité, kollimering, etc.

På de flesta platserna i Sverige är det ovanligt att seeingen är bättre än 2” men ofta så är den effektiva seeingen på långa exponeringar betydligt sämre än atmosfärens egentliga seeing på grund av lokal seeing, domseeing, tubströmmar, guide- och följningsfel. Även dålig kollimering, missat fokus, spritt ljus p.g.a. smuts på optiken, etc. spelar roll. Ett mindre välskött teleskop på en bra montering får oftast bättre resultat än ett större teleskop på en underdimensionerad montering.

Det finns egentligen ingen hård övre gräns på vad som är en lämplig pixelskala utan det beror på vad man vill använda utrustningen till (en DSLR med fisheyelins kan komma upp i mer än 100 bågsekunder/pixel) men det är i princip bara negativt att ligga mycket under halva seeingen (eller t.o.m. under halva effektiva seeingen) om man sysslar med djuprymdsfoto. Detta leder till tumregeln att pixelskalan skall vara ungefär 1 bågsekund per pixel.


Pixelskala = pixelstorlek/brännvidd (radianer resp. meter)
Pixelskala (bågsekunder/pixel) ≈ 206*pixelstorlek (mikrometer)/brännvidd(mm)

Konstanten 206 kommer från att man konverterat från radianer till bågsekunder samt från meter till μm resp. mm enligt
Image

Ljussamlande förmåga per pixel (A*Omega)
Den ljussamlande förmågan per pixel (E för Etendue) beskrivs av E = A*Omega där A är aperturens area och Omega är vinkelarean per pixel (mäts typiskt i kvadratbågsekunder för pixlar). Detta resonemang ersätter helt användandet av optikens f-tal som bara gäller vid om man använder fotografisk film och ofta blir missledande vid digitalfoto (och är helt irrelevant visuellt). Då vi är mer intresserade av S/B-förhållandet så drar vi roten ur båda sidorna. Om vi slänger bort lite konstanter och antar att vi har icke-obstruerad optik fås sambandet:
Image.

Vi ser t.ex. från denna formel att en 8 cm refraktor med 2,5”/pixel (ex. MatsJs William Optics teleskop med SBIG8300) matchar ett icke obstruerat 20 cm teleskop med 1”/pixel ur S/B synpunkt (8*2,5=20*1).

Då vi redan har en formel för pixelskalan så kan vi baka in den i formeln:
Image

Slutsatsen är att det går att maximera fotonsignalens S/B-förhållande vid en given pixelskala genom att välja rätt kombination av öppning, brännvidd och pixelstorlek. Det finns inga enkla val här, om man optimera upplösningen för det fåtal kvällar när man har riktigt bra seeing så slösar man ljus alla andra kvällar. Optimerar man delvis för ljussamling så kommer man inte kunna utnyttja hela seeingen när den är som bäst. Optimerar man tillräckligt mycket för ljussamling så spelar inte längre varken seeing eller optikens upplösning någon roll utan då är pixelskalan den enda begränsande faktorn.

Det minst kompromisslösa sättet att öka ljusinsamlingen blir en kombination av stor öppning, stora pixlar och lagom brännvid. Den ”lösningen” blir snabbt väldigt dyr, speciellt när man samtidigt vill ha goda optiska kvalitéer som platt bildfält, lite coma, litet färgfel, m.m. samt en montering som klarar av dessa stora tunga teleskop.

Val av kamera
Förutom pixelstorleken så finns det ett par saker som kan förbättra S/B på kamerasidan. Den första är kamerans kvanteffektivitet (andel fotoner som fångas som elektroner). Olika kamerors kvanteffektivitet varierar en hel del och känsligheten för olika våglängder kan också skilja en hel del. Det är vanligt att IR, djupt rött, blått, och UV kan ha problem med låg känslighet. Skillnaden kan vara väldigt stor mellan olika chip beroende på typ (CCD vs CMOS), chippets modell och eventuella filter (inbyggda RGB filter, IR block,…).

Den andra faktorn är hur mycket mörkström- och utläsningssignal kameran har. Även här varierar det en hel del mellan olika chip och chiptyper och mörkströmen beror också på sensorns temperatur. Kallt väder eller en kyld sensor, helst med termostatstyrd kylare, sänker mörkströmen en hel del.

Färg eller filterhjul
En kamera med inbyggda färgfilter (oftast en s.k. Bayermask) får endast ca 1/3 så mycket signal som samma kamera utan RGB-filter. Ögat är mindre känsligt för både brus och upplösning i färg jämfört med svartvitt, något som bl.a. utnyttjas i JPEG komprimering där man slänger bort mycket av färginformationen för att spara filstorlek.

Detta fenomen kan utnyttjas vid astrofoto genom att använda en svartvit kamera med filterhjul. Då går det att lägga en stor del av exponeringstiden i luminans (synligt ljus) eller clear (ofiltrerat ljus) där man har den starkaste signalen. Lite grovt så kan man säga att 2 timmar luminans + 1 timme färg motsvaras av 7 (3*2+1) timmar med bara färg ur signalsynpunkt. Med en CCD kamera så kan man dessutom ytterligare öka känsligheten när man fotar färg genom att binna pixlar (ökar pixelskalan vilket ökar ljussamlingen). Upplevelsen av bilden påverkas inte nämnvärt av att man tappar färgupplösning men man samlar färgsignal betydligt snabbare.

Använder man filterhjul så bör man också titta på filtrenas transmissionskurvor. Det kan skilja en hel del mellan olika filtertyper och tillverkare. Med filterhjul så har man också möjlighet att använda smallbandsfilter och fotometriska filter.
Patrik Holmström - Uppsala Amatörastronomer
User avatar
glappkaeft
Posts: 469
Joined: 2011-02-26 12:36:24
spamtest: JA
Location: Linköping
Contact:

Re: En liten ljussammlingguide

Post by glappkaeft »

Del V – Övrigt

Val av chipstorlek/synfält
En kameras synfält bestäms helt av kamerachippets dimensioner och optikens brännvidd på samma sätt som en pixels synfält. Om man räknar om den formeln så får vi även en ganska exakt approximation för synfältet:
Synfält i grader = 57.3 * kamerachipets dimensioner (i mm)/brännvidd (i mm)

Man bör dock tänka på att olika teleskop har olika stora användbara bildfält så att man inte skaffar ett onödigt stort chip. Oavsett optikdesign så ökar de optiska defekterna (bildfältskrökning, coma viginettering, etc.) när man lämnar optikens mittaxel så problemen brukar uppträda tydligast i bildens utkanter.

Ett annat problem med stora kamerachip är att eventuella filter blir betydligt dyrare när man måste täcka större chip.

Dynamiskt omfång
Skillnaden mellan en sensors nollnivå och den maxnivå när den blir saturerad bestämmer sensorns dynamiska omfång. Den kan variera en hel del mellan olika kameror vilket gör att vissa kameror snabbare blir mättade (exempelvis galaxkärnor och Orionnebulosan).

Olika sensorer samplar signalen med olika noggrannhet. En 8-bitars sensor har 2^8 = 256 steg mellan min/max pixelvärde och en 16-bitars sensorer 2^16 = 65536 steg. Detta bestämmer skillnaden mellan mörkt och ljust samt noggrannheten på mätningen av den digitala signalen (skillnaden mellan olika angränsande nivåer). Detta är besläktat med vad som kallas kvantifieringsbrus, att den uppmätta nivån kan ligga mellan två (fasta) digitala nivåer.

När man tar långa exponeringar så kommer mörkströmmen samt andra bakgrundskällor (himmelsbakgrund etc.) att utgöra en lägsta nivå. Denna miniminivå i den faktiska bilden begränsar den dynamiska spännvidden på ett sätt som liknar det som ett mindre antal bitar ger.

Olika delar av bilden har olika signal
Områden i bildfältet med låg fotonsignal, ex. bakgrunden och svaga stråk i galaxer och nebulosor, har lägre S/B förhållande än centrum hos nebulosor och galaxer. För att få ett bättre S/B förhållande i de ljussvagare områdena så kan det vara värt att ta två uppsättningar bilder. En uppsättning där de ljusare delarna av bilden är överexponerade och en uppsättning med kortare exponeringstider som får med hela dynamiken.

Typexemplet på detta är Orionnebulosan där skillnaden mellan de centrala delarna och de svagaste stråken är enorm och många av de bättre bilderna är en komposit av två eller tre olika exponeringstider. Man tappar inte så mycket tid på att göra detta då de delar av bilden man överexponerade på de långa exponeringarna inte behöver lika mycket total exponeringstid på de kortare exponeringarna för att få ett tillräckligt bra S/B-förhållande. De överexponerade områdena är ju områdena i bilden med den högsta signalen.

På sätt och vis är detta något man ofta gör utan att tänka på det då man nästan alltid väljer exponeringstider som leder till att de ljusare stjärnorna i bilden blir överexponerade.

Fokus/Seeing
En detalj som man ofta förbiser är att förbättrad seeing/fokus också förbättrar signalen på detaljer som är mindre än den seeing/fokus om man har. Det tydligaste exemplet är stjärnor(då dessa är ”nästan oändligt små”/punktlika) men även småskaliga strukturer i galaxer och nebulosor får bättre signal om seeing/fokus skalan är större än vad detaljerna är. Detta beror på att dessa ”delsignaler” är sprida över ett onödigt stort antal pixlar. Den yttersta gränsen för denna effekt är förstås pixelskalan och optikens upplösning.
Patrik Holmström - Uppsala Amatörastronomer
User avatar
anivision
Posts: 393
Joined: 2010-04-15 23:21:17
spamtest: JA
Location: Tjörn

Re: En liten ljussammlingguide

Post by anivision »

Denna tråd diskuteras här:

viewtopic.php?f=6&t=6450