Jump to content

Tricromias en BVR?


jwackito

Publicaciones recomendadas

Gente. Alguien a probado de hacer tricromías con datos de filtros fotométricos? Es decir, en lugar de utilizar los clásicos filtros RGB o L-RGB, utilizar los filtros fotometricos Johhson/Cousins UBVRcIc para hace imágenes en color.

Me dio curiosidad y me gustaría saber como quedan y que cosas se pueden aprender de fotos como esas.

Saludos.

Enlace al comentario

Joaco, que yo conozca solo una persona tiene esos filtros, pero todavia no los uso. Le puedo sugerir la prueba claro..

Abrazo

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario

Yo he hecho fotografías RGB con los filtros BVR del telescopio robótico de la Universidad de Bradford (el observatorio está en la caldera del Teide en las Islas Canarias) y salen muy bien

Los filtros tienen las siguientes características

B Ancho banda 90.5 nm centrado en 426.25nm

V Ancho banda 85 nm centrado en 533 nm

R Ancho banda 103.5 nm centrado en 628.75nm

También dispone de filtros de banda estrecha en Halfa y OIII

H alfa Ancho banda 4.4nm centrado en 657.2 nm

OIII Ancho banda 4.7 nm centrado en 500.55nm

Adjunto un collage de algunos de mis trabajos con estos filtros

Fernando

collage.jpg.e3f17afe50892175ea39d6226d19

Enlace al comentario
Joaco, que yo conozca solo una persona tiene esos filtros, pero todavia no los uso. Le puedo sugerir la prueba claro. Abrazo

Si, chateamos pero justo estaba de salida...

Yo he hecho fotografías RGB con los filtros BVR del telescopio robótico de la Universidad de Bradford (el observatorio está en la caldera del Teide en las Islas Canarias) y salen muy bien

Si, de esto estaba hablando Fernando. Que haces, usas el B para el azul, el V para el verde y el Rc para el rojo, no? Tenes idea como agregar los otros canales (U e Ic)? Yo me imagino que podes mezclar el azul con el U y el rojo con el Ic pero no se que habría que tener en cuenta para que la cantidad de señal de los canales sea representativa de la señal del objeto.

Enlace al comentario

Si el filtro B se utiliza como azul, el V (que quiere decir visual) para el verde y el R para el rojo.

Los otros dos filtros el Ultravioleta (U) y el I (infrarrojo) no tienen representación visual ya que nuestro ojo no percibe esas frecuencias. Queda a libertad de cada uno crear su propia paleta y transformar esas bandas en algún color visible.

Un ejemplo de esto son las imágenes "en colores" del Chandra que trabaja en rayos X.

Buscaré un artículo interesante que apareció en la Sky&Telescope hace un tiempo de como representar los "colores reales" cuando se trabaja en banda estrecha pero esto es otro asunto distinto al de mezclar bandas no visibles.

Para mezclar las señales puedes utilizar el script NBRGB del Pixinsight que simplifica bastante las cosas. Lo puede hacer también con el PixelMath pero debes prestar atención en cuanto peso relativo le das a cada una de las "imágenes extras" al RGB básico.

No quiero extenderme más pero si hay en algo que te pueda aclarar un poco más estoy a las órdenes

Fernando

Enlace al comentario

No sabia del script para NBRGB, pero no creo que aplique cuando estas trabajando con la tecnica bicolor sintetizando el verde no ? Intente usar Ha como luminancia pero de movida la tecnica bicolor me da unos colores irreales con Tarantula, usando Ha y OIII. Si tenes experiencia en ese tema me gustaria alguna punta...

Saludos!

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario

Para la técnica bicolor debes asignar un color a un canal, el otro color a otro canal y repetir alguno de los colores que tienes en el tercer canal .

Formas la imagen RGB y luego vas a las curvas, elijes el canal sintético (el que repetiste) y mueves el cursor hasta que quede a tu gusto.

Si por ejemplo bajas las imágenes de POSS o del Hubble sólo te tan dos canales el rojo y el azul y debes sintetizar el verde con este procedimiento.

Si trabajas en Narrow Band puede asignar el Halfa al rojo, el OIII al verde ( o al azul), repites el OIII en el otro canal , generas la imagen RGB y luego juegas con los niveles del canal sintetizado hasta que te quede algo potable.

No sé si me quedo clara la explicación pero es más fácil practicarlo que escribirlo

Fernando

Enlace al comentario

Los otros dos filtros el Ultravioleta (U) y el I (infrarrojo) no tienen representación visual ya que nuestro ojo no percibe esas frecuencias. Queda a libertad de cada uno crear su propia paleta y transformar esas bandas en algún color visible.

Un ejemplo de esto son las imágenes "en colores" del Chandra que trabaja en rayos X.

Gracias Fernando. Me refería a si conocías algún método formal para calcular la cantidad de señal que tengo que mezclar por ejemplo en el azul para incluir también la señal de UV en este canal y que esa cantidad sea significativa y proporcional a la señal real el objeto en esa banda no visible.

Enlace al comentario

Juaquito

Creo entender tu pregunta pero pondré las cosas en otros términos.

Lo que existe en el universo es radiación y lo que percibimos en nuestro cerebro es una transformación de dicha radiación en algo que llamamos luz y color.

La transformación de la radiación en "luz visible" no es una función lineal ni mucho menos. En la literatura se le conoce como curva V(lambda) y no es más que la respuesta espectral de nuestro ojo a la radiación.

Esta curva de transferencia tiene un máximo en el verde (550 nm) y luego prácticamente no tiene ganancia en el infrarrojo y en el ultravioleta. Eso quiere decir que esas longitudes de onda no las vemos y por lo tanto no tienen representación visual (ni obviamente color).

Lo que tu planteas es crear un canal azul sintético compuesto por la mezcla de la radiación en el azul y la radiación en el ultravioleta y ponderar de alguna manera esa mezcla.

No le veo una aplicación práctica a esto, a menos de un tema de estética, pero se me ocurre que esta ponderación podría realizarse de la siguiente manera.

- Deberías conseguir el espectro de la estrella en cuestión donde se grafica para cada longitud de onda el valor de radiación correspondiente. Ten en cuenta que cada estrella tiene su propio espectro o al menos pertenece a alguna familia de espectros similares. Te adjunto el espectro de Raslhague que hace un tiempo medí con una red de difracción para que comprendas la idea.

- En esa gráfica deberías ubicar en el eje de las abscisas la frecuencia central del filtro (xej el Uc y el B) y ver cuál es el valor correspondiente de radiación a cada una de esas frecuencias. Tomas esos valores y los normalizas y allí tendrías los pesos relativos

Ej supongamos que para la frecuencia central del Ultravioleta el valor en la curva del espectro es 47 y que para el azul es 38, entonces los pesos relativos para el canal azul de tu mezcla serían 47/(47+83) para el Ultravioleta y 38/(47+38) para el azul.

Fernando

PD

En este enlace está el artículo que te comentaba de la Sky&Telescope sobre como procesar los colores reales en Narrowband. Esto no es lo mismo ya que los filtros Narrowband caen dentro del espectro visible

colores-naturales-en-fotografia-de-banda-estrecha-t24697.html#p212783

Enlace al comentario

Lo que tu planteas es crear un canal azul sintético compuesto por la mezcla de la radiación en el azul y la radiación en el ultravioleta y ponderar de alguna manera esa mezcla.

No le veo una aplicación práctica a esto, a menos de un tema de estética, pero se me ocurre que esta ponderación podría realizarse de la siguiente manera.

Todo lo contrario. Lo que quiero es integrar en el canal azul o azul y rojo (para que se vea violeta, tal vez) la cantidad exacta de radiación en una determinada longitud de onda invisible para el ojo humano. El tema es que quiero que esta cantidad sea representativa de la radiación real del objeto.

En la gráfica se puede ver que la respuesta del sensor que estoy usando es casi la mitad en la longitud de onda de 380nm que en 600nm. Teniendo en cuenta esto y que los filtros también son menos sensibles en esa longitud de onda, si expongo determinado tiempo en 600nm para obtener la señal del objeto, cuanto tiempo tengo que exponer para obtener la señal del objeto en la longitud de 380nm?

baaderphotometrics-vs-qhy5lii-lightcurve

Enlace al comentario

Creo que ahora comprendí la pregunta.

La respuesta en frecuencia final del sistema dependerá de

a-El espectro de la fuente

b- de la respuesta del sistema óptico

c-de la respuesta de los filtros y

d- de la respuesta espectral de la cámara monocromática

El resultado final es la multiplicación de las funciones de transferencia de cada uno de estos 4 elementos

Olvidémonos por un momento del espectro de la estrella y asumamos que es plano en el rango visible que nos interesa (en el artículo que te adjunto verás que aconsejan utilizar una estrella tipo G2V para esto)

Tambien supongamos que la respuesta en frecuencia del sistema óptico es plana

Entonces nos quedan dos elementos, la respuesta en frecuencia de los filtros (son las curvas en colores de la figura que adjuntaste) y la respuesta en frecuencia de la cámara (la curva negra en tu figura). La función de transferencia final es la multiplicación de la respuesta del filtro por la respuesta de la cámara.

Para equilibrar los "colores" lo que se hace es fotografiar la fuente blanca (la estrella tipo G2V) con cada uno de los filtros, durante un mismo tiempo y sin que la estrella sature y luego con algún programa astrométrico se mide el brillo máximo de la estrella (max. count)

Hay que tener en cuenta la extinción (que es el efecto de la masa de aire de la atmósfera) siendo la mejor posición para fotografiar la estrella G2V el zenit y la peor el horizonte. Como la refracción es dependiente de la frecuencia hay que introducir factores de corrección adicionales para cada color según la altura de la estrella sobre el horizonte.

Suponiendo que se han tomado todos estos recaudas entonces el filtro que de el valor máximo de brillo de la estrella se toma como referencia y se calcula el factor de los restantes filtros en función de este. x ej si en el filtro verde el máximo nos dio 25000 , en el azul 14000 y en el rojo 19000 los factores de correción son

Factor corrección rojo= 1/(19000/25000) =1.32

Factor corrección verde= 1/(25000/25000)=1

Factor corrección azul= 1/(19000/25000)= 1.79

y entonces si expones 1 seg en el verde, debes hacerlo 1.32s en el rojo y 1.79 en el azul.

Para el Ultravioleta y el Infrarojo sería lo mismo, aunque de la curva de la cámara me parece que en el ultravioleta obtendrás muy poca señal.

Aqui van un par de links que lo explican mejor que yo

http://www.astro-imaging.com/Tutorial/LRGB_I.html

http://starizona.com/acb/ccd/advtheorycolor.aspx

http://www.astrodon.com/products/software/

Con esto está resuelto el tema de cuanto tiempo exponer con cada filtro. Ahora restaría resolver como mezclar la señal de los 5 filtros para obtener la imagen "color"

Los B, V y R son inmediatos porque se asignan directamente a los canales Azul , Verde y Rojo respectivamente.

El infrarrojo queda más alla del rojo y por lo tanto no hay mezcla visible posible.

El Ultravioleta tiene una pequeña zona de solapamiento con el Azul pero justamente en la zona donde la respuesta de la cámara es muy pequeña por lo que no creo que tengas señal para procesar.

Matemáticamente puedes hacer la operación que quieras con el PixelMath y si quieres sintetizar el canal Azul con el Azul real y el Ultravioleta o el canal Rojo con el Rojo real y el Infrarrojo podrás hacerlo, pero el resultado será totalmente artificial

Fernando

Enlace al comentario

Buenísimo Fernando. Gracias por los enlaces. No conocía la calculadora de Astrodon. Esto era lo que quería justamente. En cualquier caso, si incluyo la señal de IR o UV la imagen quedará con un color artificial, por que como bien decis, el ojo humano no es sensible a estas longitudes de onda. Pero lo que quería era representar justamente esta señal en algún color y que la señal sea representativa de la señal real del objeto en esas longitudes de onda. Es decir, artificial, pero no tanto ;)

Abrazo.

Enlace al comentario

Un aporte adicional (pero dejando de lado lo de las bandas de ultravioleta e infrarrojo)

Cuando tengo por separado los canales R, G,B , antes de combinarlos para formar el RGB, los paso por la herramienta LinearFit del Pixinsight.

El procedimiento es simple , eliges un canal como referencia, por ejemplo el verde, y le aplicas el LinearFIT al azul y al rojo.

En esencia logras lo mismo que en el método que estuvimos discutiendo de ponderar las exposiciones para ecualizar los pesos relativos de cada canal, pero es más sencillo.

La imagen RGB que se obtiene queda prácticamente neutralizada y si luego aplicas el proceso "Color calibration" del Pixinsight la imagen queda casi perfecta.

Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...