Jump to content

Júpiter 22-4


NicoHammer

Publicaciones recomendadas

Hola, les dejo una captura de Júpiter de anoche, era temprano y, si bien no estaba a buena altura, el seeing era mas que aceptable.

 

Esta vez hice 14 videos de 1 minuto, procesados independientes y de-rotadas las imágenes en winjupos para el apilado final.

 

Si bien la imagen mejora (en total apile el 40% de los frames, dando aprox 6000f) y se notan muchas más bandas, no logro que se noten mayores detalles, calculo que ya es limitación del equipo, de todas maneras estoy contento con los resultados.

1572258571_Jpiter2019-04-22-2315_7-WJOK.thumb.jpg.98963132789b7de07f5dfb65b7cfc9dc.jpg

Resultado, haciendo un resize de casi el doble con PS y ajustando expo, brillo y contraste.

1534986019_Jpiterwjsinedicion2019-04-23-0215_7-.jpg.95597de4d7603d391c25515dd9fa33d6.jpg

Ésta es el resultado del winjupos haciendo un crop de 400x400px, sin tocar nada en PS.

Saludos

  • Like 8

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario
hace 33 minutos, NicoHammer dijo:

calculo que ya es limitación del equipo,

 

Vas a ir logrando mejores resultados a medida nos acercamos a la oposicion, ya que el planeta va ganando tamaño y luminosidad, y tambien altura , mas temprano.

 

Con respecto a la definicion de la imagen, estas bastante bien, en relacion a la apertura, pero creo va a mejorar en el caso de una buena ventana de seeing,  lo hagas a mejor altura, mas avanzada la opo, y vayas tomando mas experiencia de procesado.

 

No te recomiendo apilar tantos videos en uno solo, ni usar winjupos, ya que es una complicacion innecesaria, a menos que ya tengas mucha experiencia, estes en el limite y trates de afinar resultados, que creo no es el caso.  Olvidate por un tiempo de la desrotacion, y relajate, buscando el mejor video y aprendiendo a procesar mejor un cuadro simple.

 

Con ese setup buscaria hacer el mejor video posible de 90 a 120 segundos, con el planeta a mas de 50 grados de altura, y de ahi sacar una imagen.  Eso te va a dar algo mejor que todas la suma que puedas hacer, de videos "pobres", de baja altura.

No se que opciones de resolucion tenes con esa camarita, pero buscaria aumentarle los fps, en caso este por debajo de 20fps (a veces el soft tira muchos fps pero se repiten los cuadros). Revisar la congestion del bus usb, y explorar todas las opciones de software, a veces ayuda a una mejor captura.

 

Saludos, y paciencia que cuando menos te lo esperes mejora todo de golpe.

 

Editado por Hal9000
  • Like 2
Enlace al comentario
hace 5 minutos, Hal9000 dijo:

 

Vas a ir logrando mejores resultados a medida nos acercamos a la oposicion, ya que el planeta va ganando tamaño y luminosidad, y tambien altura , mas temprano.

 

Con respecto a la definicion de la imagen, estas bastante bien, en relacion a la apertura, pero creo va a mejorar en el caso de una buena ventana de seeing,  lo hagas a mejor altura, mas avanzada la opo, y vayas tomando mas experiencia de procesado.

 

No te recomiendo apilar tantos videos en uno solo, ni usar winjupos, ya que es una complicacion innecesaria, a menos que ya tengas mucha experiencia, estes en el limite y trates de afinar resultados, que creo no es el caso.  Olvidate por un tiempo de la desrotacion, y relajate, buscando el mejor video y aprendiendo a procesar mejor un cuadro simple.

 

Con ese setup buscaria hacer el mejor video posible de 90 a 120 segundos, con el planeta a mas de 50 grados de altura, y de ahi sacar una imagen.  Eso te va a dar algo mejor que todas la suma que puedas hacer, de videos "pobres", de baja altura.

No se que opciones de resolucion tenes con esa camarita, pero buscaria aumentarle los fps, en caso este por debajo de 20fps (a veces el soft tira muchos fps pero se repiten los cuadros). Revisar la congestion del bus usb, y explorar todas las opciones de software, a veces ayuda a una mejor captura.

 

Saludos, y paciencia que cuando menos te lo esperes mejora todo de golpe.

 

Muchas gracias Hal por los tips, si obvio lo de la oposición y la altura, vengo haciendo seguido porque quiero ir probando y ganando experiencia en apilado y proceso.

 

Con la c270 puedo hacer 30fps hasta a 1280x920, pero por el tamaño del planeta nunca paso de 960x720, y eso es porque tengo que dejarlo derivar y corregir a mano. De todos modos, probé con todas las resoluciones y nunca logré que agarre mas de 20fps, no se porqué, intente jugando con exposición, ganancia y otros parámetros y no logro que capture mas frames.

 

Esta ultima semana estuve probando con mismos horarios si, apilando varios videos y de-rotando en winjupos lograba mejores detalles. en algunos casos mejoró, el caso de anoche, es mas nitido el resultado del winjupos que el del mejor video solo.

 

A segur practicando, pero si, voy a dejar el de-rotado porque no veo gran diferencia, teniendo en cuenta lo tedioso del proceso.

 

Saludos y gracias de nuevo!

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario
hace 14 minutos, NicoHammer dijo:

Con la c270 puedo hacer 30fps hasta a 1280x920, pero por el tamaño del planeta nunca paso de 960x720

 

Menor resolucion con mismo tamaño de sensor,  o "recorte" ?? . Si el tamaño de sensor no varia, siempre usa la maxima definicion, es decir, buscar una relacion 1:1 entre pixeles sensor e imagen resultante.

En caso de que puedas hacer "recorte", es decir, usar una menor parte del sensor, usando menos pixeles del mismo, ahi si aumentan los fps, y baja la resolucion. Pero si no es el caso, ahi tenes un factor muy importante en la definicion, ya que hay un procesado de software que transforma la resolucion original de captura en la que sale del video, "arruinando" la data original, ya que usa un algoritmo muy malo al vuelo, para poder mandar la señal de video sin demoras. Si hay que hacer un resize, siempre es mejor con tiempo y otro software dedicado, y no un driver. El hecho que no varien los fps es un indicador de que no hay recorte de sensor, ya que deberian aumentar al disminuir el sector de barrido del sensor, y disminuir la data de transferencia al bus.

 

Hace el video en la definicion maxima, luego lo podes pre--procesar con pipp, para recortar y tener un video menos pesado para apilar, o tomate tu tiempo con el apilado, que apuro hay?. Si es el caso que menciono, tus apilados van a mejorar un monton solo con eso, ya que a simple vista las capturas parecen "iguales", solo con distinta resolucion, pero hay mas "data" y rango dinámico, en donde no hubo resize.

 

Saludos.

 

 

Enlace al comentario
hace 5 minutos, Hal9000 dijo:

 

Menor resolucion con mismo tamaño de sensor,  o "recorte" ?? . Si el tamaño de sensor no varia, siempre usa la maxima definicion, es decir, buscar una relacion 1:1 entre pixeles sensor e imagen resultante.

En caso de que puedas hacer "recorte", es decir, usar una menor parte del sensor, usando menos pixeles del mismo, ahi si aumentan los fps, y baja la resolucion. Pero si no es el caso, ahi tenes un factor muy importante en la definicion, ya que hay un procesado de software que transforma la resolucion original de captura en la que sale del video, "arruinando" la data original, ya que usa un algoritmo muy malo al vuelo, para poder mandar la señal de video sin demoras. Si hay que hacer un resize, siempre es mejor con tiempo y otro software dedicado, y no un driver. El hecho que no varien los fps es un indicador de que no hay recorte de sensor, ya que deberian aumentar al disminuir el sector de barrido del sensor, y disminuir la data de transferencia al bus.

 

Hace el video en la definicion maxima, luego lo podes pre--procesar con pipp, para recortar y tener un video menos pesado para apilar, o tomate tu tiempo con el apilado, que apuro hay?. Si es el caso que menciono, tus apilados van a mejorar un monton solo con eso, ya que a simple vista las capturas parecen "iguales", solo con distinta resolucion, pero hay mas "data" y rango dinámico, en donde no hubo resize.

 

Saludos.

 

 

La verdad es que no termino de entender bien el tema de resoluciones, el sharpcap con la webcam me da opciones de resolución, en muchos casos recomiendan 800x600 o menos, pero en ese caso el recorte hace que no tenga al planeta en pantalla mas que unos pocos segundos (no tengo seguimiento y la montura es dobson ?, pero estoy trabajando en una adaptación para usar el heritage en la eq2 del daza, calculo que para la semana que viene voy a poder usarlo con seguimiento en AR )

 

Voy a probar eso que me decís, hacerlo en la máxima resolución y después que lo cropee el pipp.

 

Te paso un apilado del mejor video de ayer, el 70% de 800 frames:

 

Júpiter 22-4-2019 23_22_51_pipp_lapl4_ap40.jpg

Editado por NicoHammer

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario

Muy buenas las imágenes Nico. Creo que son las mejores que has obtenido. Felicitaciones.

Muy interesantes los consejos de @Hal9000 aunque no termine de entender lo que plantea. Evidentemente tenemos mucho por aprender.

Saludos

Editado por Tato44
Enlace al comentario
hace 3 minutos, Tato44 dijo:

Muy buenas las imágenes Nico. Creo que son las mejores que has obtenido. Felicitaciones.

Muy interesantes los consejos de @Hal9000 aunque no termine de entender lo que plantea. Evidentemente tenemos mucho por aprender.

Saludos

Gracias Tato! Si totalmente, esto es un camino de aprendizaje, de pruebas y de disfrute.

Voy a probar algunas cosas en base a los tips de Hal, veremos si logro mejorar las capturas, mientras sigo practicando procesados, pensando en las oposiciones de mediados de año.

Abrazo!

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario
hace 11 horas, NicoHammer dijo:

La verdad es que no termino de entender bien el tema de resoluciones, el sharpcap con la webcam me da opciones de resolución, en muchos casos recomiendan 800x600 o menos, pero en ese caso el recorte hace que no tenga al planeta en pantalla mas que unos pocos segundos (no tengo seguimiento y la montura es dobson ?, pero estoy trabajando en una adaptación para usar el heritage en la eq2 del daza, calculo que para la semana que viene voy a poder usarlo con seguimiento en AR )

 

Resolución, basado en la cantidad de pixeles (ancho y alto) no aporta a la foto final de un planeta.

En cuanto a la cámara, lo que da significativo detalle es el tamaño del pixel.

En cuanto a la adquisición, es el seeing y la relación entre el telescopio (su apertura y DF) y el tamaño del pixel de la cámara.

Cuando el software te propone alto x ancho, siempre se basa en el mismo tamaño de pixel. O sea, multiplicar ese tamaño por tantas unidades. Esto no hace que el detalle del planeta sea mayor. De ahí que el recorte sea necesario para no cargar innecesariamente el video de pixeles "oscuros" que no captan la luz del planeta.

Esto mismo ocurre con los celulares, donde se cree que aumentar la resolución gana en detalle.

 

Saludos

  • Thanks 2

Javier Iaquinta

 

Enlace al comentario
hace 11 horas, javieriaquinta dijo:

ocurre con los celulares, donde se cree que aumentar la resolución gana en detalle

 

Que alguien crea que aumentar la resolución gana en detalle es independiente del hardware que usa para adquirir , puede tener esa misma creencia usando cualquier tipo de cámara. En general la gente que usa el celular es por que no tiene recursos y/o simplemente quiere llevarse una pequeña postal de lo observado.
 

Editado por clear
Enlace al comentario

Hola Nico como estas, totalmente de acuerdo, yo no me gastaría aun en lo del winjupos.... por ahora buscaria el mejor resultado con un video de 1 min maso.

Si buscas el unico jupiter que he hecho y publicado, tiene una resolución bastante similar (hecho con webcam microsoft lifecam hd y el mak 102) y es un video de menos de 1 min.

Igual falta para que jupiter sea capturado en todo su explendor.

Seguí practicando que le estas agarrando la mano!

Abrazo

  • Thanks 1
Enlace al comentario
hace 12 horas, Tato44 dijo:

Muy interesantes los consejos de @Hal9000 aunque no termine de entender lo que plantea

 

hace 12 horas, javieriaquinta dijo:

Resolución, basado en la cantidad de pixeles (ancho y alto) no aporta a la foto final de un planeta.

 

El tema que planteo no es una cuestion de resolucion , si maxima, mayor o menor. Si bien el tamaño de pixel en relacion a focal y apertura es un tema a tener en cuenta, pero no era a lo que yo me referia.

Sino de que la resolucion del video, repito, se corresponda en 1:1 con la resolucion del sensor en pixeles, para lograr la mejor captura posible.

 

Es decir, no se haga resize , ni interpolacion alguna desde la captura, hasta el video que se genera. Si el sensor es de A x B pixeles, el video debe ser igual, no menor ni mayor, o lo mas cercana posible. Excepto que se haga crop del sensor, con lo cual solo se toma una parte del sensor, bajando la resolucion de la captura, pero tambien el tamaño de lectura del sensor, y se mantiene la relacion 1:1.

Cuando hay un resize hacia "arriba", hay interpolacion y/o resize, y si hay resize hacia abajo, por ejemplo tomando en 640x480 con un sensor completo de mayor resolucion (sin crop), el algoritmo es "malo", porque debe ser "veloz" para hacerlo al vuelo.

 

Vuelvo a postear este link, que es para canon, pero ejemplifica lo que se busca.

 

http://www.astropix.com/html/i_astrop/eq_tests/canon_one_to_one_pixel_resolution.html

 

Saludos.

 

 

 

 

 

 

  • Like 3
  • Thanks 1
Enlace al comentario
hace 8 horas, Hal9000 dijo:

 

 

El tema que planteo no es una cuestion de resolucion , si maxima, mayor o menor. Si bien el tamaño de pixel en relacion a focal y apertura es un tema a tener en cuenta, pero no era a lo que yo me referia.

Sino de que la resolucion del video, repito, se corresponda en 1:1 con la resolucion del sensor en pixeles, para lograr la mejor captura posible.

 

Es decir, no se haga resize , ni interpolacion alguna desde la captura, hasta el video que se genera. Si el sensor es de A x B pixeles, el video debe ser igual, no menor ni mayor, o lo mas cercana posible. Excepto que se haga crop del sensor, con lo cual solo se toma una parte del sensor, bajando la resolucion de la captura, pero tambien el tamaño de lectura del sensor, y se mantiene la relacion 1:1.

Cuando hay un resize hacia "arriba", hay interpolacion y/o resize, y si hay resize hacia abajo, por ejemplo tomando en 640x480 con un sensor completo de mayor resolucion (sin crop), el algoritmo es "malo", porque debe ser "veloz" para hacerlo al vuelo.

 

Vuelvo a postear este link, que es para canon, pero ejemplifica lo que se busca.

 

http://www.astropix.com/html/i_astrop/eq_tests/canon_one_to_one_pixel_resolution.html

 

Saludos.

 

 

 

 

 

 

Gracias por la respuesta (perdón Nico por invadir tu post).

Yo uso sharpcap y mí cámara tiene resolución HD. Si en el sharpcap le digo que tome el vídeo en 630 x 480, estoy afectando esa relación 1.1? Y que pasa cuando se usa binning 2 por ej., en partiendo de resolución HD, al activar el binning 2, el vídeo sale 640 x 480 pero con píxeles el doble de grandes, eso afecta el 1.1?

Saludos

Enlace al comentario
hace 5 minutos, Tato44 dijo:

Gracias por la respuesta (perdón Nico por invadir tu post).

Yo uso sharpcap y mí cámara tiene resolución HD. Si en el sharpcap le digo que tome el vídeo en 630 x 480, estoy afectando esa relación 1.1? Y que pasa cuando se usa binning 2 por ej., en partiendo de resolución HD, al activar el binning 2, el vídeo sale 640 x 480 pero con píxeles el doble de grandes, eso afecta el 1.1?

Saludos

No hay problema, tengo la misma duda, no entendí muy bien como saber exactamente en qué valores tendría relación 1 a 1. La c270 tiene un chip creo, si lo que lei era correcto, de 2,8x2,8, no sé si eso es lo que se usa para el calculo

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario
hace 10 minutos, Tato44 dijo:

Yo uso sharpcap y mí cámara tiene resolución HD. Si en el sharpcap le digo que tome el vídeo en 630 x 480, estoy afectando esa relación 1.1?

 

Si.

 

hace 10 minutos, Tato44 dijo:

Y que pasa cuando se usa binning 2 por ej., en partiendo de resolución HD, al activar el binning 2, el vídeo sale 640 x 480 pero con píxeles el doble de grandes, eso afecta el 1.1?

 

Que buena pregunta.  Inicialmente pensaria que no afecta. Pero dependera del tipo de "binning" que haga la cámara.

Si es analogo, creo seria el mejor caso, ya que promedia la señal y luego la digitaliza, no habiendo resize.

Si es digital (promediando 4 pixeles para obtener uno), ahi ya tenes un algoritmo, que equivale a un resize.

Luego este algoritmo, puede ser bueno o malo, dependiendo si esta implementado en hardware, o en el driver por software, esto creo te podrias das cuenta si aumenta el ancho de banda al hacer binning (mas fps), o si sigue igual e incluso disminuyen los fps al tener que promediar en software.

Todo esto es teorico, y en el aire, hay que ver con la camara, como esta implementado y como puede afectar, y probarlo por supuesto!!.

 

Enlace al comentario
hace 15 minutos, NicoHammer dijo:

La c270 tiene un chip creo, si lo que lei era correcto, de 2,8x2,8, no sé si eso es lo que se usa para el calculo

Ningun calculo.

Tan simple como usar la resolucion nativa, máxima del sensor y nada mas. A menos que se recorte el sensor fisicamente leyendo menos area (la camara debe soportar esta funcion "crop"), y por ende disminuya el cuadro de video.

Los calculos se hacen cuando esto no es posible (por ejemplo no se pueda filmar con reflex usando la resolucion nativa del sensor, algo muy comun)

 

El tamaño de sensor, apertura, focal y tamaño de pixel, son para otro calculo, para evitar saturar pixeles con poca focal, o no tener el mejor rango dinamico posible por señal debil en altas focales, sino la idea es quedar justo en el "sweet spot" . Yo nunca hago este calculo, me doy cuenta poniendo la ganancia electronica (o mentirosa)  de la camara a cero, y viendo que imagen tengo variando la focal. Igual siempre me paso pero luego gano un poco mas de rango, porque promedio varios videos.

 

Saludos.

Editado por Hal9000
Enlace al comentario
hace 1 minuto, Hal9000 dijo:

Ningun calculo.

Tan simple como usar la resolucion nativa, máxima del sensor y nada mas. A menos que se recorte el sensor fisicamente leyendo menos area (la camara debe soportar esta funcion "crop"), y por ende disminuya el cuadro de video.

 

El tamaño de sensor, apertura, focal y tamaño de pixel, son para otro calculo, para evitar saturar pixeles con poca focal, o no tener el mejor rango dinamico posible por señal debil en altas focales, sino la idea es quedar justo en el "sweet spot" . Yo nunca hago este calculo, me doy cuenta poniendo la ganancia electronica (o mentirosa)  de la camara a cero, y viendo que imagen tengo variando la focal. Igual siempre me paso pero luego gano un poco mas de rango, porque promedio varios videos.

 

Saludos.

Ahh perfecto, eso era lo que no había entendido, la resolución nativa de la cámara.

Gracias Hal!

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario

Es fácil saber si la camara captura 1:1 o no: simplemente tomen un video en el tamaño nativo de la camara, y luego en un tamaño menor. Después ven los 2 videos en la compu con un zoom de 1:1 (algunas aplicaciones permiten hacer esto, Media Player Classic, si mal no recuerdo). Si el planeta se ve del mismo tamaño en ambos videos, lo capturó 1:1, si no, lo achicó, y perdieron detalle en la imagen.

Siempre van a perder detalle al achicar una imagen, a menos que estuviera sobremuestreada (oversampled). Un crop, en cambio, no pierde detalle, pero sí pierde campo de visión.

Editado por fsr

Fernando

Enlace al comentario
hace 1 hora, fsr dijo:

Es fácil saber si la camara captura 1:1 o no: simplemente tomen un video en el tamaño nativo de la camara, y luego en un tamaño menor. Después ven los 2 videos en la compu con un zoom de 1:1 (algunas aplicaciones permiten hacer esto, Media Player Classic, si mal no recuerdo). Si el planeta se ve del mismo tamaño en ambos videos, lo capturó 1:1, si no, lo achicó, y perdieron detalle en la imagen.

Siempre van a perder detalle al achicar una imagen, a menos que estuviera sobremuestreada (oversampled). Un crop, en cambio, no pierde detalle, pero sí pierde campo de visión.

Gracias por la aclaración! Es lo que noté, en las capturas a menor resolución, notaba menor tamaño del planeta. Sigo entonces con la máxima que permite la webcam de forma nativa.

Saludos

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario

Muchas gracias @Hal9000 y @fsr ahora está mas claro.

Entonces si al bajar de resolución HD a 640 x 480 se afecta la relación 1.1, y pierde calidad la imagen, ¿porque recomiendan tomar vídeos a la mínima resolución posible? ¿se trata de obtener muchos frames sacrificando la calidad de la toma?

¿optar entre muchos frames o calidad?

Gracias y saludos

Enlace al comentario
hace 2 minutos, Tato44 dijo:

¿porque recomiendan tomar vídeos a la mínima resolución posible? ¿se trata de obtener muchos frames sacrificando la calidad de la toma? 

 

Se trata de tomar muchos frames nomas, por segundo (fps), bajando con esto tambien la exposicion de cada cuadro (sacrificando el menor rango dinamico posible), pero un cuadro es mas estatico y mejor si la toma dura menos, por el seeing.

 

Nunca hay que sacrificar la calidad de la toma, metiendo algoritmos de resize o compresion.

En otras camaras podes usar un recorte del sensor y bajar la resolucion, manteniendo el 1:1

 

Saludos

  • Like 1
Enlace al comentario

Hola a todos,

 

Hace rato que vengo leyendo posts de la Logitech c270 y su resultados con fotografía planetaria. Principalmente los de @NicoHammer y @Tato44, sus resultados me han motivado. Incluso hace unos días compré una para empezar a hacer fotografía planetaria. 

 

Cuando empecé a probarla vi demasiados controles en SharpCap y al tocar algunos el resultado no era el esperado (ej. el control de tiempo de integración). Así que empecé a hacer algunas capturas de prueba apuntado la cámara con su óptica original a un target  ISO 12233 y luego procesando con Matlab para sacar las verdades.

 

Todavía no hice todas las pruebas que quería pero adelanto algunos resultados. Luego si compilo todas las pruebas deseadas hago un post dedicado.

 

1) El control de tiempo de integración, Exposure en  la sección Camera Controls, está invertido. A medida que el tiempo de integración se configura mas grande la imagen se ve mas oscura cuando en realidad debería ser mas intensa y a medida que el tiempo de integración se configura mas chico la imagen se hace mas brillosa cuando en realidad debería hacerse mas oscura. El valor de  31,3 ms parece ser el único que está bien.

 

2) Para lograr los 30 FPS en SahrpCap en el control Frame Rate Limit, que por defecto dice 30, hay que poner Maximum, de esta manera el control de FPS queda subordinado por el control FPS de Capture Format and Area, donde también hay que poner 30. El control de tiempo de integración no debe ser automático. El tiempo de integración "real" debe ser de como máximo 31,3 ms, si se usan valores "reales" mas grande la tasa baja (ya que el detector está mas tiempo integrando que el período con el que se deberían generar los frames).

image.png.b6b97c11e07e467a6e5ad40f5b686b9f.png

 

3) A pesar de la configuración de FPS que menciono arriba no se repiten los mismos datos en dos frames consecutivos.

 

Todo lo anterior manteniendo la resolución Nativa de 1280 x 720.

 

PC con Windows 10. SharpCap v3.2.5986. Webcam con Firrmware versión 7.1.1011.

 

Saludos

Editado por Matias_M
  • Like 1
  • Thanks 1
Enlace al comentario
En 23/4/2019 a las 11:25, NicoHammer dijo:

Con la c270 puedo hacer 30fps hasta a 1280x920, pero por el tamaño del planeta nunca paso de 960x720, y eso es porque tengo que dejarlo derivar y corregir a mano. De todos modos, probé con todas las resoluciones y nunca logré que agarre mas de 20fps, no se porqué, intente jugando con exposición, ganancia y otros parámetros y no logro que capture mas frames.

 

Proba con la configuración que mencioné arriba y luego contarme si logras los casi 30 FPS.

 

  • Like 1
Enlace al comentario

@Matias_M muy buenas las pruebas que te mandaste!!

Voy a probar la opción de Frame Rate Limit a ver si aumentan los fps.

 

Algo que no me quedo muy claro es la Exposicion, yo venía usando también 31,3, pero pensaba aumentarlo y subir la ganancia, dado que estoy aprox en la mitad y viendo unos tutoriales de Christopher Go, habla de darle al mango la ganancia y compensar en Expo.

Y ahí va lo que no entendi, que problema habría si lo pongo por ejemplo en 60 o más? (En realidad es disminuir el tiempo, eso se entendió)

 

Gracias por la investigación!

Nicolás Arias (arias.na.ed@gmail.com)
Observatorio Cielos de Banfield - MPC X40 - WDS Cod: ANI

Enlace al comentario
hace 10 horas, NicoHammer dijo:

Algo que no me quedo muy claro es la Exposicion, yo venía usando también 31,3, pero pensaba aumentarlo y subir la ganancia, dado que estoy aprox en la mitad y viendo unos tutoriales de Christopher Go, habla de darle al mango la ganancia y compensar en Expo.

Y ahí va lo que no entendi, que problema habría si lo pongo por ejemplo en 60 o más? (En realidad es disminuir el tiempo, eso se entendió)

 

Creo que viene bien explicar muy brevemente el funcionamiento de una cámara en este aspecto. Si no se entiende después hago algo mas gráfico. 

 

La configuración de FPS te dice cuantas fotos se toman por segundo para conformar el video, y por lo tanto cada cuanto tiempo se toma una nueva captura. Ej.: Si la cámara trabaja a 30 FPS significa que se toma una nueva captura cada T_frame =  1/FPS = 1/30 = 33,33 ms

 

Si se considera que cada el tiempo T_frame se toma una captura, ese es el tiempo máximo que los pixeles tienen para integrar la energía (luz) que reciben. Dicho de otra manera, en un caso ideal el Tiempo de Integración (o Exposición), T_int, máximo que podrás lograr idealmente es de T_frame =  1/FPS . Ej: Para 30 FPS el tiempo de exposición máximo es de 33,33 ms, pero normalmente vamos a ver tiempos menores aproximados, como por ejemplo 31,3.

 

Respecto a la Logitech C270, hasta el momento supongo que la relación entre el tiempo de integración de configuración en SharpCap y el tiempo de integración real es de la siguiente tabla (ya voy a ver si puedo validarlo de alguna manera). En esa tabla también podes ver los FPS máximos que podrías lograr con ese tiempo de integración. Luego de 31,3 ms (reales) por mas que se reduzca el tiempo de integración no se logra mas tasa porque la cámara da como máximo 30 FPS.

 

image.png.5e8d7a9b72a176f1a30b2d4657606128.png

 

De ahora en adelante si me refiero a un tiempo de integración para la Logitech C270 me referiré al real.

 

Respecto a tu pregunta, para una dada configuración de FPS mientras uses un tiempo de exposición igual o menor al máximo no tendrás problemas y el FPS final se respetará. Es decir, para una tasa configurada de 30 FPS podrías usar cualquier tiempo de exposición desde 31,3 ms hasta 2 ms.

 

El problema de reducir el tiempo de integración, y aumentar la ganancia para compensar, es que la imagen va a tener menor relación señal a ruido, es decir, vas a tener una imagen más ruidosa. No obstante supongo que acá se quiere reducir el tiempo de integración para minimizar el impacto del seing. Ya voy a mirar los videos de Christopher Go para ver que dice.

 

Saludos,

  • Thanks 2
Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...