Jump to content

Jupiter 03-03-2016


Hal9000

Publicaciones recomendadas

Luego de múltiples noches (5 o 6) donde el seeing o las nubes no me dejaron hacer nada (un clásico de mendoza), finalmente pude rescatar una.

Si bien no fue una gran mejora de seeing, ya que no pude tomar una buena imagen de luminancia con filtro IR+UV como pretendia, me pude conformar con el canal rojo, sino era imposible.

Aun estoy esperando esa gran noche calma, que no llega, sino me voy a tener que mudar de provincia.

Les comparto entonces, un júpiter hecho con R+RGB , 30 segundos x canal, y el canal rojo como luminancia.

Capturado con FireCapture, debo decir que es la primera vez que lo uso y es lo mas genial que he visto, me ahorro muchisimo trabajo al alinear automaticamente los videos, y mantener los settings para cada filtro.

Apilado con autostakkert, (cambie desde registax por la velocidad de apilado).

Retoques con Photoshop (levels,curvas, sharpen, etc)

Quise usar un video de luminancia que hice con el filtro R+IR (longpass), pero no pude des-rotar correctamente la imagen (aun soy muy noob con winjupos y me enrede con eso).

El video de luminancia fue tomado 3 minutos despues pero ya es muy notoria la rotacion del planeta. Asi que me vere obligado a aprender a usar bien eso a ver si mejoro aun mas el procesado.

Si algun forero experto me quiere ayudar con eso o conoce un buen tutorial, agradecido.

Se que el 8 da para más, pero aun la atmosfera no me deja.. Igual espero les guste.

Saludos.

Jup_1_RRGB.jpg.97e4c23b587984efe10d611c9

Enlace al comentario

Muy bueno Diego. Te cuento mi workflow un poquito.

1) Yo no hago luminancia (según C.Go no porta mucho). La luminnacia aporta información cuando podés hacerla al doble de la resolución de los canales RGB. Igualmente, no aporta información usar IR, IR+R o R como luminancia. Si tendría sentido si haces binning para los canales RGB y haces la luminancia (IR/UV cut) sin binning, con lo que ganarías tiempo de procesado, almacenamiento y eso. Como yo hago todo a binning 1x1 (osea, sin binning) ya las imágenes de los canales individuales tienen toda la resolución posible.

2) Firecapture es una masa. Ojala hubiera un soft así para linux. Yo grabo videos de 1 munuto por canal al framerate que de (generalmente, a 320x240 llego a unos 180fps). Estos los proceso con AS2 (alineado, apilado) y automáticamente me manda el frame resultado a Registax, que solamente uso para aplicar wavelets. Una vez que apliqué waves (los mismos parametros para cada frame de cada canal), hago la medición con WinJupos y derroto. Dado que la derrotación hace percha el ruido, conviene a veces darle más al gain y bajar el tiempo de expo para tener mas fps, que hacer al revés para que las imágenes finales no salgan con tanto ruido. Esto de nuevo, según C.Go y comprobado a medias por mi.

3) Yo generalmente hago 3 o 4 juegos de datos, los RGB, el canal IR y el canal CH4. A veces el canal UV pero solo si el seeing es muuuuuy bueno. Estos son canales separados que tiene info distinta de los demás, ergo, no aporta nada (excepto a tener una foto linda o rara) el hecho de mezclar por ejemplo IR con RGB o IR con UV.

4) Yo tengo estudiados los videos de esta serie de tutoriales de winjupos.

Sorry, in English.

Esperemos que el seeing te deje hacer algunas pruebas más.

Abrazo grande.

Enlace al comentario

Muy interesantes tus conceptos jwak, pero de hecho el canal rojo que use para luminancia, tiene mas informacion que el resto (por ser menos sensible al seeing, mas detallado y menos borroso).

El canal IR+R, tiene aun mas luminosidad que el rojo solo, y me permite darle menos exposicion, por tanto son mas FPS (el doble).

Por ahi la diferencia no es muy notable en el resultado final, voy a hacer pruebas sobre esto.

Voy a pensar el tema del binning para RGB, tiene sentido, siempre y cuando sea capaz de obtener una muy buena luminancia.

Voy a estudiar tambien esos tutoriales de winjupos a ver si logro algo.

Muchisimas gracias por la info.

Una pregunta importante: Conviene desrotar videos, o la imagen final apilada de cada canal ?.

Saludos.

Enlace al comentario
Muy interesantes tus conceptos jwak, pero de hecho el canal rojo que use para luminancia, tiene mas informacion que el resto (por ser menos sensible al seeing, mas detallado y menos borroso).

Noup... El canal rojo es el que menos se degrada con el seeing, es cierto, pero el canal más detallado es el azul, ya que la longitud de onda es más corta.

C. Pellier lo explica clarísimo en este post

http://www.planetary-astronomy-and-imag ... avelength/

El canal IR+R, tiene aun mas luminosidad que el rojo solo, y me permite darle menos exposicion, por tanto son mas FPS (el doble).

Por ahi la diferencia no es muy notable en el resultado final, voy a hacer pruebas sobre esto.

No de nuevo. C. Pellier al rescate de nuevo.

http://www.planetary-astronomy-and-imag ... r-imaging/

Voy a pensar el tema del binning para RGB, tiene sentido, siempre y cuando sea capaz de obtener una muy buena luminancia.

Voy a estudiar tambien esos tutoriales de winjupos a ver si logro algo.

Muchisimas gracias por la info.

Esto es lo que hacen los fotografos de espacio profundo. Pasa que trabajan con resoluciones gigantes. Para planetaria, según C.Go, no vale la pena ya que se puede samplear bien el planeta a resoluciones relativamente chicas y a 8 bits por pixel.

Una pregunta importante: Conviene desrotar videos, o la imagen final apilada de cada canal ?.

Yo apilo los videos sin desrotarlos, pero son videos de 60 segundos por canal. Entre el cambio de filtro y enfoque se te suman 4 minutos entre el primer fotograma y el último. Por eso esos 3 fotogramas si hay que procesarlos, pero si los videos son de mas de 90 segundos supongo que ya conviene desrotarlos. C.Go junta entre 5 y 15 minutos de datos por cada foto, pero los videos nunca son de mas de 60 segundos. Para juntar 10 minutos en IR saca 10 videos de 60 segundos, apila, y luego desrota los 10 frames resultado.

Abrazo!

Enlace al comentario

Impresionante Jwak.

Estas en lo cierto segun lo que expones, pero el tema del seeing obliga!. Mi canal azul, en el 100% de los casos, Apesta !!. Justamente ese fue uno de los motivos por el cual empece a hacer RGB, ya que cuando separaba el canal azul en el video color, era una pelota borrosa, ahora por lo menos puedo enfocarlo.

Aca dejo 2 reprocesados, siguiendo al tutorial y un poco de practica, pude hacer desrotacion en AMBOS, lo cual le dio a la imagen mas exactitud en el color.

O sea, desaparecieron artefactos por el color rojo "corrido" hacia la izquierda, debido a la rotacion del planeta hacia la derecha (el canal rojo es el primero que tome).

En el primer reprocesado es RGB, y el segundo R+IR RGB, agregando el video de luminancia.

No mejoro mucho realmente, pero me gusta un poco mas, a pesar de cambiar un poco los colores.

Un dato interesante, tal cual el link que pasaste, en mi experimento tambien aparece mas presente el AZUL, en la imagen donde se uso el rojo para luminancia.

Mucho aprendi hoy de esto, gracias y saludos.

PD: Tenes idea como hacer para que NO enderece el planeta segun la linea ecuatorial, al desrotar?

Jup_1_Desrotado_RGB.jpg.a570a44c38f13530

Jup_1_Desrotado_RIR-RGB.jpg.1223cd8d894d

Editado por Invitado
Enlace al comentario

A pesar de no tener buen seeing diego los resultados son bastante buenos, te digo que me sorprende mucho la tecnica RGB con este tipo de ccd monocromaticas pero aun asi me gusta ser mas practico y usar a color...de hecho estoy pensando en una ccd dedicada a planetaria a color en lugar de monocromatica a pesar de que esta ultima sea mas sensible para el guiado. Si necesitas te convido algo de mi buen seeing sanjuanino :P

Saludos

Enlace al comentario

Si, definitivamente, tendriamos que hacer una juntada para intercambiar conocimientos y experiencias !!, al parecer en San Juan, ya que tu video salio muy bien detallado, y también es muy interesante tu tecnica.

Saludos.

Enlace al comentario
PD: Tenes idea como hacer para que NO enderece el planeta segun la linea ecuatorial, al desrotar?

Eeeeh, nop. Por el algoritmo que usa, no creo que se pueda. Lo que hace WinJupos (very clever indeed) es hacer una serie de proyecciones cilíndricas a partir de las "esferas" 2D de Júpiter. Luego registra y apila estas proyecciones como si fueran imágenes en 2D, como quien apila mapamundis. Luego vuelve a recomponer la proyección esférica. Esto es lo que hace bolsa el ruido. Es como un apilado más. Lo que se me ocurre que podes hacer es girarlo luego con gimp o algún otro programejo para editar fotos para ponerlo como te guste.

Nico, lo de usar una cámara RGB es perfectamente válido, en cuyo caso la adquisición mejora muchísimo si utilizas un corrector de dispersión atmosférica. El tema de las cámaras RGB es que te quitan la posibilidad de hacer tomas de canales específicos, como IR, UV o CH4.

Abrazo.

PS: Yo también quiero buen seeing... :cry:

Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...