Jump to content

triplete de leo 6 minutos


Publicaciones recomendadas

hace 25 minutos, antareano dijo:

Que anda pasando Fer con ese procesado???? pareciera que a las glaxias le pasates la herramienta aerosol del paint!!!! :D

Podes colgar el crudo para ver como salió???

abrazoo

Anoche saque desde el campo a isos altos para ver que salia. En el campo tengo cero contaminación y el cielo es negro absoluto (mirar para arriba sin luna es alucinante) Ahora las estoy apilando pero creo que subir el iso me dara un muy buen resultado.

 

Enlace al comentario
On 31/1/2017 at 11:03, cardrw dijo:

Es un modelo viejo. Esta es una actual.. Losmandy es una empresa reconocida mundialmente por la calidad de construcción de sus monturas. 

 

 

 

Off-topic,  Losmandy empezo si mal no recuerdo fabricando Dolly's y equipamiento para filmacion en Hollywood, equipos grandes para camaras de filmacion...de hecho la empresa se llama "Hollywood General Machining, Inc."... 

  • Like 1

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario
hace 17 minutos, ricardo dijo:

 

Off-topic,  Losmandy empezo si mal no recuerdo fabricando Dolly's y equipamiento para filmacion en Hollywood, equipos grandes para camaras de filmacion...de hecho la empresa se llama "Hollywood General Machining, Inc."... 

Cierto. es conocida también en el ámbito de Cinematografía y TV.  Tengo entendido que sigue en ese rubro también. Equipamiento general de montaje en estudios de cinematografía y TV. 

Editado por cardrw
Enlace al comentario
1 hour ago, marianomf dijo:

podríamos hacer fotos de (por ej.) 1 segundo y sumarlas, en vez de largas exposiciones. Podríamos hacer fotos sin guiado, y no habría necesidad de esas monturas tan caras

 

La verdad apenas lei esto me parecio una severenda pelot....dez..  Como se obtendria un rango dinamico decente sin exposicion??.

 

Pero pensandolo un poco con detenimiento, al entender que esta frase viene de alguien que sabe, encontre que tiene mucho sentido !!,

En vez de sumar los fotones, como bits en la memoria de una camara, los sumamos como bits en la compu con un apilado de multiples imagenes de 1 segundo, donde muchos pixeles van a aparecer y otros no en las distintas imagenes, y los que mas se repitan tendran mas luminosidad, generando asi el rango dinamico.

 

Mientras mas aprendo, mas ignorante me siento porque mas entiendo todo lo que no se .... decia uno por ahi.

 

 

Como resumen:

 

Lo que nos joderia, entre la imagen de 100 segundos y las 100 imagenes de 1 segundo, es el ruido acumulado de lectura que se mutiplica x 100... Es asi?

Lo que necesitamos entonces es ruido de lectura cero para poder hacer esto??... no falta mucho.... es solo tecnologia de sensores !!.... se viene el fin de las supermonturas??.

 

Saludos.

 

  • Like 2
Enlace al comentario
hace 5 minutos, Hal9000 dijo:

 

hace 1 hora, marianomf dijo:

podríamos hacer fotos de (por ej.) 1 segundo y sumarlas, en vez de largas exposiciones. Podríamos hacer fotos sin guiado, y no habría necesidad de esas monturas tan caras

 

La verdad apenas lei esto me parecio una severenda pelot....dez..  Como se obtendria un rango dinamico decente sin exposicion??.

 

Antes de opinar en forma tan "concluyente " sería bueno que leas un par de cosas.

 

Si te interesa el tema del apilado de imágenes subexpuestas tomadas con réflex  puede ser útil que leas un par de artículos de un discutido especialista en la materia, Shamir Kharusi, por los resultados que expone no veo clara la razón por la cual lo es en algunos sitios especializados.  A menos que esté jugando el Ego u otras cosas más desagradables todavía. 

 

http://www.samirkharusi.net/sub-exposures.html

 

Y hablando de exposiciones realmente cortas 

 

http://www.pbase.com/samirkharusi/really_short_subs

 

Saludos.

 

Carlos.

 

 

 

Editado por cardrw
  • Like 1
Enlace al comentario
hace 30 minutos, cardrw dijo:

Antes de opinar en forma tan "concluyente " sería bueno que leas un par de cosas.

 

Estaba comentando una primera impresion y la posterior reflexion sobre el tema.

No estoy opinando de forma concluyente, de hecho, casi nunca lo hago, ni siquiera en los temas en los que SI soy mas despierto (no es astronomia ni fotografia) , ya que todo cambia con mucha rapidez con el avance del conocimiento, la tecnologia y los productos, y todo es una constante de estudio e investigacion. Y cuando lo hago, suelo equivocarme tambien.

 

Creo que si no me sacabas de contexto en esa sola frase se entiende mejor.

 

hace 38 minutos, Hal9000 dijo:

La verdad apenas lei esto me parecio una severenda pelot....dez..  Como se obtendria un rango dinamico decente sin exposicion??.

 

Pero pensandolo un poco con detenimiento, al entender que esta frase viene de alguien que sabe, encontre que tiene mucho sentido !!,

 

Gracias por los links !.

 

Saludos.

  • Like 1
Enlace al comentario

 

hace 1 hora, cardrw dijo:

Si te interesa el tema del apilado de imágenes subexpuestas tomadas con réflex  puede ser útil que leas un par de artículos de un discutido especialista en la materia, Shamir Kharusi, por los resultados que expone no veo clara la razón por la cual lo es en algunos sitios especializados.  A menos que esté jugando el Ego. 

 

http://www.samirkharusi.net/sub-exposures.html

 

Y hablando de exposiciones realmente cortas 

 

http://www.pbase.com/samirkharusi/really_short_sub

 

Gracias, los estuve mirando, muy interesante!

1 hour ago, fbuezas dijo:

@marianomf y @eprimucci que cantidad de material han puesto, les agradezco a los dos por servir en bandeja semejante información. Voy a leerla con detenimiento. Mariano, tu pasión es contagiosa. Mil gracias por eso.

 

 

Gracias Fernando, me pasa lo mismo al ver tu entusiasmo, es contagioso

Enlace al comentario
hace 28 minutos, Hal9000 dijo:

 

La verdad apenas lei esto me parecio una severenda pelot....dez..  Como se obtendria un rango dinamico decente sin exposicion??.

 

Pero pensandolo un poco con detenimiento, al entender que esta frase viene de alguien que sabe, encontre que tiene mucho sentido !!,

En vez de sumar los fotones, como bits en la memoria de una camara, los sumamos como bits en la compu con un apilado de multiples imagenes de 1 segundo, donde muchos pixeles van a aparecer y otros no en las distintas imagenes, y los que mas se repitan tendran mas luminosidad, generando asi el rango dinamico.

 

 

Tema para pensar (no me pidan una demostración estadística porque no estoy capacitado).

¿Da lo mismo sacar 300 lights de 1 minuto a sacar 10 lights de 30 minutos?

 

Supongamos el extremo.

Existirán fotones que por su ocurrencia no llegarán a recolectarse en ninguno de los 300 lights que tomen de 1 minuto. O sea, consideramos ese extremo. En consecuencia, por más que se sumen los 300 lights, no lograremos diferencia para estos fotones no recolectados (obvio).

Ahora bien. Si hacemos lights de 30 minutos, aumenta la posibilidad de recolectar esos fotones por cada light que hagamos (no sé en cuánto, pero le estamos dando 29 minutos extra de posibilidades por light).

En consecuencia, para el extremo que estamos tratando, exposiciones de 30 minutos aumentan las chances de que por lo menos en algún light tengamos esos fotones que indefectiblemente con 1 minuto de exposición no se captarán. Luego tenemos incluso la posibilidad de aplicar algún algoritmo de rechazo al apilar, o quedarnos con todo sin rechazar nada.

 

Por ahí es un ejercicio burdo, pero se me ocurrió pensar la problemática de esta manera.

 

Saludos

 

 

  • Like 1

Javier Iaquinta

 

Enlace al comentario
hace 4 minutos, javieriaquinta dijo:

¿Da lo mismo sacar 300 lights de 1 minuto a sacar 10 lights de 30 minutos?

 

Como resumen, al parecer seria lo mismo si no fuera por el ruido de lectura de cada imagen, segun lo que expuso mariano, donde a mismo tiempo de integracion total, convendria tener menos imagenes, siempre y cuando en cada sub te despegues bien del fondo en los 3 canales?.

 

 

Editado por Hal9000
  • Like 1
Enlace al comentario
hace 1 minuto, Hal9000 dijo:

 

Como resumen, al parecer seria lo mismo si no fuera por el ruido de lectura de cada imagen, segun lo que expuso mariano, donde a mismo tiempo de integracion total, convendria tener menos imagenes.

 

 

ah, justo abajo de mi posto explico (intuyo) que no es lo mismo 300 lights de 1 minuto que 10 lights de 30 minutos. :mrgreen:

Javier Iaquinta

 

Enlace al comentario
hace 9 minutos, javieriaquinta dijo:

En consecuencia, para el extremo que estamos tratando, exposiciones de 30 minutos aumentan las chances de que por lo menos en algún light tengamos esos fotones que indefectiblemente con 1 minuto de exposición no se captarán

 

No entendi esto.

No deberia importar en cuantos lights divida los 30 minutos, si en uno o en 30, el foton que llega cada 30 minutos, porque es de algo muy debil y lejano, deberia aparecer no?

 

Enlace al comentario

Pfff... acá lo encontré :)

 

Cito:

 

¿Cuántos archivos de imagen?
Más, es mejor, pero por debajo de un umbral es menos eficiente.
La relación señal/ruido se incrementa con la raíz cuadrada de la cantidad de cuadros combinados sin importar el tiempo de exposición de cada uno de los cuadros.
Esto es cierto para todos los métodos de combinación (promedios, medios, recorte de kappa-sigma, promedio ponderado,...) excepto para los promedios ponderados de entropía, ya que este método utiliza la entropía para sopesar cada píxel y así se incrementa el ruido, que es un gran contribuyente de entropía.

Esto significa que si su base de RSR es 1, cuando combina 10 imágenes la RSR se incrementa por 3,16 (raíz cuadrada de 10). Para 30 imágenes es 5,47, para 50 imágenes es 7,07, para 100 imágenes es 10, y para 300 imágenes es 17,32.

Como puede observar, para conseguir una relación de 7, son necesarios 50 cuadros entre 1 y 50, pero 200 cuadros son necesarios debajo de 100.

100 x 1 minuto y 10 x 10 minutos dan el mismo resultado?
Si, considerando la RSR pero definitivamente No cuando consideramos el resultado final.

La diferencia entre una exposición de 10 minutos y una exposición de 1 minuto está dada por que la RSR en la exposición de 10 minutos es 3,16, veces mayor que en la exposición de 1 minuto.

Así tendrá la misma RSR si combina 10 imágenes de 10 minutos, o 100 imágenes de 1 minuto. De todas formas probablemente no obtenga la misma señal (que es la parte interesante). Simplemente coloque una imagen si la exposición es lo suficientemente larga como para captar algunos fotones en la mayoría de las imágenes, que no se consideren como ruido.

Por ejemplo, para una nebulosa tenue puede tener unos pocos fotones cada 10 minutos. Si está usando exposiciones de 10 minutos, habrá capturado fotones en cada una de sus imágenes, y al combinarlas, la señal será fuerte. Si está usando exposiciones de 1 minuto, habrá capturado fotones solo en alguna de sus imágenes, y al combinarlas, los fotones serán considerados como ruido ya que no se encuentran en la mayoría de las imágenes.

 

¿Puedo combinar dos (o más) imágenes resultantes?
Absolutamente si, pero la regla de la raíz cuadrada se aplica con una pequeña modificación.

Cuando se combinan dos imágenes la RSR se incrementa en 1,414 (raíz cuadrada de 2).
Si ambas imágenes tiene la misma RSR entonces es la misma que haciendo un apilamiento simple. Esto no significa que la combinación esté dando la misma imagen, solamente tienen la misma RSR.

Sin embargo si una de las imágenes apiladas contiene más imágenes que la otra, las RSRs de las resultantes serán diferentes, y la RSR de la combinación será menor que la RSR del apilamiento de todas las imágenes originales.

Así, combinando el resultado del apilamiento de 10 imágenes de 1 minuto con una única imagen de 1 minuto, la RSR es aproximadamente la misma que la obtenida por la combinación de 2 imágenes. Esto se debe al hecho de que al combinar dos imágenes, y debido a que el ruido es aditivo, la mejor imagen es dañada por la peor de ellas durante el proceso.

 

Fuente: http://deepskystacker.free.fr/spanish/theory.htm

  • Like 1

Javier Iaquinta

 

Enlace al comentario
hace 21 minutos, Hal9000 dijo:

 

Estaba comentando una primera impresion y la posterior reflexion sobre el tema.

No estoy opinando de forma concluyente, de hecho, casi nunca lo hago, ni siquiera en los temas en los que SI soy mas despierto (no es astronomia ni fotografia) , ya que todo cambia con mucha rapidez con el avance del conocimiento, la tecnologia y los productos, y todo es una constante de estudio e investigacion. Y cuando lo hago, suelo equivocarme tambien.

 

Creo que si no me sacabas de contexto en esa sola frase se entiende mejor.

 

 

Gracias por los links !.

 

Saludos.

Cuando te contesté todavía no habías escrito el resto. Igual pegate una leída a los links, están muy interesantes. 

Enlace al comentario

Excelente explicacion citada por Javier, entonces volvemos al tema del ruido....

 

Eliminando el ruido con tecnologia de sensores mas avanzada, no vamos a tener que descartar pixeles por ningun motivo, y no va a importar si el pixel aparecio en un solo sub, porque hacemos sub cortos, y no se repite, no lo vamos a eliminar.

 

Tampoco vamos a tener el ruido de lectura acumulado por imagen, y vamos a poder hacer nuestros famosos subs de 1 segundo e integrarlos.

 

El futuro esta en los nuevos sensores!, las monturas grandes seguiran sirviendo, para mover aperturas mayores, pero no van a hacer falta exposiciones largas.

 

Saludos.

 

 

 

  • Like 1
Enlace al comentario
hace 8 minutos, Hal9000 dijo:

Excelente explicacion citada por Javier, entonces volvemos al tema del ruido....

 

Eliminando el ruido con tecnologia de sensores mas avanzada, no vamos a tener que descartar pixeles por ningun motivo, y no va a importar si el pixel aparecio en un solo sub, porque hacemos sub cortos, y no se repite, no lo vamos a eliminar.

 

Tampoco vamos a tener el ruido de lectura acumulado por imagen, y vamos a poder hacer nuestros famosos subs de 1 segundo e integrarlos.

 

El futuro esta en los nuevos sensores!, las monturas grandes seguiran sirviendo, para mover aperturas mayores, pero no van a hacer falta exposiciones largas.

 

Saludos.

 

 

 

relativo, porque cuando tengamos esos sensores vamos a queres captar cosas mas oscuras y vamos a recurrir a largas exposiciones otra vez. Cuanto tengas una herramienta mejor no te vas a conformar con lo que hoy logras, vas a querer mas.

  • Like 1
Enlace al comentario
hace 6 minutos, Hal9000 dijo:

 

No entendi esto.

No deberia importar en cuantos lights divida los 30 minutos, si en uno o en 30, el foton que llega cada 30 minutos, porque es de algo muy debil y lejano, deberia aparecer no?

 

 

Volvamos al ejemplo de 300 lights de 1 minuto contra 10 lights de 30 minutos.

Vamos otra vez al extremo para simplificar.

 

Ponele que en un pixel cae un solo fotón en cada uno de los 10 lights de 30 minutos. Al final, cuando apiles, en la foto ese pixel estará "iluminado" dado que en todos los lights se "verificó" que hay un dato en ese pixel (o sea, no es ruido) incluso por más que apliquemos un algoritmo de rechazo (que siempre se aplica).

 

Ahora, distribuí esos 10 fotones en 10 de los 300 ligths (casualidad cayó un fotón en un solo light). Bueno, vas a tener 10 lights con un pixel con datos, y 290 con ese pixel vacío.

Cuando apiles esta segunda sesión, los 10 fotones no pueden considerarse señal del objeto, sino ruido, dado que los otros 290 lights están sin señal.

 

Saludos

 

 

Javier Iaquinta

 

Enlace al comentario

En este momento estoy complicado para contestar como corresponde pero dejo un par de fotos para que miren los parámetros y los equipos con los que fueron realizadas (abajo a la izquierda). La tecnología ya está y en cualquier momento Losmandy vuelve a hacer Dollys jaja 


20160910_NGC7814_ASI1600MM.jpg

 

20160505_M51_2000x1s_AutoStakkert_ASI160

 

Saludos!

Editado por marianomf
  • Like 2
Enlace al comentario
hace 5 minutos, Hal9000 dijo:

Yo que  vivo en un lugar "mas apto" (Mendoza), pero asi y todo hay que salir, aunque mas cerca, pero no junto 4 gatos para que salgamos juntos, me tengo que ir solo, cada uno anda con sus problemas o no hay interes.

 

¿Salís solo con el SCT8 y HEQ5? Debés tener unos músculos infernales... :D Sería interesante contactarme con los muchachos que van a _Areco. Comentame quienes son por PM en todo caso. Yo tambien salgo solo o con familia, trato de elegir algún lugar  no muy contaminado pero a veces no coincide con los gustos de mis socias.  

Enlace al comentario
hace 15 minutos, marianomf dijo:

 

Miren los parámetros y los equipos con los que fueron realizadas (abajo a la izquierda):

 

INCREIBLESSSSSSS

Son tomas de un fuking segundoooooooo

Enlace al comentario
hace 1 minuto, fbuezas dijo:

Son tomas de un fuking segundoooooooo

 

con 16 pulgadas ?? ..... prefiero menos pulgadas y mas segundos... por ahora mientras no tenga un observatorio.... jaja

 

Saludos.

Enlace al comentario

estimados:

Va mi foto de anoche. Son casi 60 fotos de 60 segundos a iso 3200, sin darks ni bias ni flats. La verdad que con ellos salen peor (no se por que pero parece que el chiste de @CODO de no hacer fotos de calibre no es tan absurdo)

 

triplet iso3200 54fotos.jpg

  • Like 3
Enlace al comentario

@Hal9000 viendo lo que puso @marianomf, mira el rango dinamico, error de lectura, etc que salen en aquellas medidas

 

lumix gh3:

http://www.sensorgen.info/PanasonicLumix-DMC-GH3.html

 

canon 500D (entiendo que es la que vos tenes)

http://www.sensorgen.info/CanonEOS-500D.html

 

has pensado en comprar una mirrorless?:P

 

 

Enlace al comentario
hace 8 minutos, fbuezas dijo:

sin darks ni bias ni flats

Me gusta mucho esa foto!!!.Fernando,lo mio fue una humorada,nada más.Pero me parece que en este caso,obviando esos 3 pasos;la calidad de esta captura se bebe al tremendo cielo que tenés,la temperatura,alineación,y cámara,sumados a la calibración de la misma.Saludos,buenos cielos,y cuidate,César. 

Enlace al comentario

Hola amigos. Me gusta el entusiasmo y la pasión que se transmite en este hilo! Los temas que tratan son complejos porque hay tantas variables en juego que cualquier juicio de valor ("esto es mejor que aquello") debe estar acompañado de una detallada y precisa descripción del contexto, que debe permanecer igual en la comparación. Ahora no tengo mucho tiempo, pero les dejo un par de reflexiones y formas de trabajar que he adoptado últimamente.

 

ISO: trato de utilizar el nivel asociado a "ganancia unitaria" (unity gain). Es decir, la ganancia que mapea un electrón de carga en el fotosito a una cuenta a la salida (ojo, tomando los bits del conversor A/D, es decir 12 o 14 típicamente en cámaras DSLR, y no los 16bits que los formato RAW utilizan). De esta manera se obtiene el mejor rango dinámico sin sacrificar resolución tonal. A veces ese ISO no está disponible (ej, 1000), entonces uso el ISO mayor que le sigue.

 

Asumiendo que el guiado no es problema, estiro los tiempos de exposición sin que las zonas de interés del objeto saturen (si algunas estrellas brillante lo hace, no me preocupa). En objetos con mucho rango dinámico (ej, CG), combino series de distinta duración (usando HDR de 64bits). En la práctica, uno utiliza ciertos módulos de tiempo típicos, para poder usar librerías de darks. Mis módulos clásicos son 3, 5 y 10 minutos de subexposición. En raras ocasiones, 1 minuto o menos (M42, Homúnculo, etc.).

 

En cuanto al ruido de lectura, hoy en día las DSLR modernas tienen un ruido de lectura residual (luego de calibrar con un superbias) muuuyyy bajo, que solo juega cuando queremos hacer muchos subs muy cortos (ej, en lucky imaging de objetos tenues). Pero en espacio profundo (objetos dispersos y tenues) en general se obtienen mejores resultados con subs largos.

 

Tener pocos sub muy largos tampoco me gusta, porque se pierden los efectos del dithering y las posibilidades de hacer un buen bayer-drizzle (para evitar la interpolación color) .

 

En cuanto al comentario sobre sensores CMOS y CCD, hoy la vanguardia la tienen los primeros, que por razones comerciales no están disponibles en formato monocromático, para los fabricantes de cámaras astronómicas. Es correcto decir que el KAF8300 es un sensor del año 2005 aprox., y que la compañia Truesense (ex Kodak) que los fabrica tiene modelos CCD más modernos, pero muy caros en formato fullframe o mayor. Lo que impulsa la innovación en sensores hoy es el mercado de celulares (sensores chicos, con pixel muy chicos), que después derrama en otros mercados (cámaras retail, DSLRs, y otras aplicaciones industriales). 

 

Hoy Sony es la compañía que tiene la mejor tecnología en CMOS: los sensores Exmor R retroiluminados. La única cámara comercial que los usa en formato FF es la alpha 7R II. Por otro lado, QHY parece que consigue sensores de sony y esta por lanzar una cámara refrigerada con un sensor FF Exmor (no R, no retroiluminado), equivalente al de la cámara alpha 7R, o sea OSC. Sin matríz de bayer no hay. Recientemente se anunció la Pentax KP, aparentemente muy sensible, y me intriga mucho el sensor que utiliza (APS-C).

 

Saludos,

Ignacio

 

 

 

 

 

 

 

Editado por ignacio_db
  • Like 2
Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...