Plutom

Miembros
  • Contenido

    1658
  • Registrado

  • Última Visita

Reputación en la Comunidad

2 Neutral

1 Seguidor

Sobre Plutom

  • Rango
    Experto
  • Cumpleaños

Información Personal

  • Equipo
    Dobson 350 SW
  1. Terrible el descubrimiento! Sobretodo porque era el exoplaneta que se les venia esquivando a los tipos. Muchas gracias Phili por la data, completa como siempre! Saludos
  2. Si señores, el Hubble le descubrió una diminuta luna al planeta enano Makemake! (por ahora con el novelesco nombre MK 2) Y son grandes noticias, pues aso ayuda un montón a la hora de calcular con altísima precisión la masa del sistema, algo que por lo general dificulta tomar medidas en objetos donde no se sabe el albedo con exactitud (porcentaje de luz que refleja su superficie), y de tener un satélite natural esta problemática se puede solventar [centrar][/centrar] [centrar]Imagen del descubrimiento[/centrar] Diminuta, bastante oscura, se cree que lo orbita en 12 días a Makemake y bueno, por ahora esos pocos datos se tienen al respecto. ¿Por qué tardaron tanto? Y, anda medio lejos, y por si fuera poco nunca se tuvo tanta resolución en anteriores tomas como para detectarla (sí, se requirió del Hubble para hallarla, imagínense). Saludos!
  3. Y qué denominación sugerís? No son las computadoras o programas convencionales, son mucho más complejas, por supuesto. Pero en el extremo son lo mismo, con niveles de complejidad exponencialmente distintos. De una simple navaja a una FAL hay un abismo de distancia, pero la nomenclatura es la misma: arma. De ahí que lo quieras poner en categorías es otra cosa; lo mismo acá, ambas cosas son máquinas, una es biológica y la otra artificial. De que las artificiales tengan sus niveles de complejidad (lo mismo corre para las biológicas) eso ya habrá que formular nuevas definiciones. Por aportar alguna idea... "programa no consciente" y "programa consciente" como gran separador de categorías, cuando lleguemos a inventar una que cuadre en el segundo grupo... Devuelta, no le veo la relación explícita entre una cosa y otra. Hay teoremas complicados y teoremas sencillos. Un teorema que puedo demostrar yo como también puede demostrar un programa sencillo -imagino, porque devuelta, cero de informática- , es el siguiente: p(x):"x+2=4" , luego p(x) es verdadera si y solo si x=2, cualquier otro caso resulta falso. Y convencido estoy de que un programa sencillo puede demostrar algo así... Aparte, más contundente aún: ¡Ataúd, las bolas! El Teorema de los Cuatro Colores fue demostrado casi totalmente vía computadora: https://es.wikipedia.org/wiki/Teorema_de_los_cuatro_colores ; lo mismo para el problema de las pistas del Sudoku, resuelto en grandísima parte por computadora; y hay un par mas que no recuerdo ahora mismo... Eh... ¿por qué? Digo, no me resulta del todo claro jajaj. Igual si tomamos a la persona como algo que en primera instancia no se reconoce a si misma, luego sí, tiene todo sentido lo que comentás a continuación. Quiero decir.... un bebé no se reconoce a sí mismo al momento de nacer, la diferencia radica en que va generando conocimientos, aprendiendo, desarrollandose, demás. ¿Por ahí pasa la cosa? Tremenda pregunta... Más dudoso aún es preguntarse, si puede desarrollar un pensamiento ético, ¿qué tendría de malo en decir que sí misma es un animal? Podría hallar los perfectos argumentos en argumentar que su programación hace de cerebro, que su hardware hace de cuerpo, que es consciente como otras máquinas biológicas, etc. ... Ahora, ¿tendrá vida? Si asegura tenerla, y no hay manera de discernirlo (con la salvedad de que le vemos todas sus componentes metálicas), ¿qué hacemos ahí? Digo, viene un robot que me dice "Chabón viste el partido del rojo el otro día? Emocionante, unos nervios tenía!!" , daría miedo la similitud con las emociones humanas que puede llegar a """sentir""". Saludos!
  4. Está perfectamente planteado todo, no hay nada que discutir, es irrealizable. Por eso la única diferencia científicos, físicos e ingenieros espaciales con nosotros es que unos revolucionan nuestro entendimiento y amplían las barreras del conocimiento, la tecnología y los límites inimaginables que puede alcanzar la humanidad, mientras que bueno... otros dicen 'no se puede', 'puro humo', 'todo mediático, es por la guita' desde detrás de un monitor. Saludos!
  5. Uhh llegué tardísimo man! Feliz cumple bastante atrasado Salutes
  6. Increíble la verdad, que tan descarado se puede ser... Saludos!
  7. Gracias jajaja, el tema me interesa bastante Del mismo modo, uno puede suponer (y con cierta lógica) que hay problemas que sencillamente no pueden resolverse utilizando un cerebro. ¿La demostración? Bueno, puede ser un tanto complicado de visualizar, pero la mente humana, a cierto punto, tiene sus debidas limitaciones (puesto que el cerebro contiene seguramente una cantidad finita de "procesos" que puede realizar). Quizás determinar en qué punto esté el límite sea mucho, muchísimo más dificultoso -y casi imposible-. Pero al menos una rama de los "procesos" que realiza el cerebro sí se sabe con exactitud dónde tiene su límite, al día de hoy al menos. Y me refiero a la rama de las "capacidades matemáticas" de los humanos en general, cuya complejidad se ve limitada por problemas que no puede resolver, ejemplo, la famosa Hipótesis Riemann (si están interesados me adentro en el tema). Osea, la capacidad de resolución de ejercicios matemáticos de la mente humana, al menos por ahora, tiene un límite superior de "Hipótesis de Riemann". O puesto en otras palabras, llamemos C(h) a la complejidad resolutiva humana en general para problemas matemáticos (o "capacidad intelectual matemática" de un ser humano cualquiera) . Entonces se sabe que "x+2=4" < C(h) < "Hipótesis Riemann" , o lo mismo, que cualquier persona sabe la solución a x+2=4, pero (al 01/04/2016) nadie sabe la respuesta a la Hipótesis Riemann. Para problemas de física o astronomía se aplica lo mismo. Ahora, para otros "axiomas" o serie de procesos de la mente humana, como lo concerniente al lenguaje por ejemplo, no hay algo tan fácilmente visible de dónde tenemos los límites de "procesamiento", pero seguramente los haya (aunque desconozca como aproximar tal límite ) Si el punto entonces era decir que no todas las funciones son programables, entonces está perfecto, y bastante bien probado por sr. jwackito . Ahora, tanto un cerebro como una máquina siguen obedeciendo lo mismo: tanto para unos como para otros hay problemas irresolubles dadas su programación respectiva. Aclaración importante. Eso no separa tampoco a los humanos de las computadoras, pues las computadoras también pueden aprender por la experiencia, con algún algoritmo ingenioso (el ejemplo que justamente estamos analizando es el de AlphaGo, que parte de su programación hace que juegue consigo misma para aprender de sus errores y grabarlos en una base de datos, por un proceso que no se detallar por que no sé mucho de informática). Aclaración importante 2. Simplemente no aplica, a mi entender. Los axiomas del lenguaje, como dije más arriba, simplemente se rigen por reglas que son más complejas de detallar y que desconozco realmente. Y justamente en una conversación, por más matemática que fuere, indefectiblemente involucra algún "algoritmo cerebral/biológico" del lenguaje. Ahora, en los papeles, y seriamente, una persona en general sí sabe escoger un número entre el uno y el 10, si se le pide tal tarea. Osea, un humano en general interpreta correctamente lo que se le pide. De ahí a que diga lo que le pidieron que interprete involucra, reitero, a una parte de programación de índole matemática, y a otra lingüística, por ende, al fin y al cabo la respuesta depende de si el algoritmo lingüístico que interviene decide responder lo mismo que el algoritmo matemático procesó, ó si se quiere hacer el gracioso y decir 11, sea por el motivo que fuere. Y adelantándome a una posible respuesta, no vale tampoco decir que, dado que puede que la persona no haya entendido el problema fuera el motivo de la respuesta "11". Y simplemente porque entonces, se corresponde con una "programación" defectuosa -suena horrible dicho de ese modo, pero no encuentro una palabra más elegante-, o bien por un bug/glitch o error del programa, que tengo entendido que también le puede pasar a un programa, en este caso del humano en cuestión. ----------------------------------------------------------------------------------------- Y finalmente, adhiero a la interpretación (nuevamente) de Migue, es fácilmente demostrable, por el otro lado, que el cerebro, aunque prácticamente casi imposible de hacer, es modelable a modo de un sistema "informático" (entre comillas porque obviamente, supone algo de mucha mayor complejidad, claro está). Para la demostración, hay que hacer la siguiente suposición, media lela (no sé como expresarlo técnicamente, así que le prueba contiene mucho palabrerío): Supongamos que un cerebro no es modelable o programable. Esto quiere decir que no hay manera de disponer elementos físicos, reales, de manera tal que compongan una 'máquina' que procese con la complejidad del cerebro. Luego, si no existe al menos una disposición posible de tales elementos, eso implica o significa que no existen los cerebros. Por ahora no sabemos si esa proposición es verdadera o falsa. ¿Cómo lo comprobamos? Bueno, en la próxima star party, le doy el permitido a jwacko de abrirme a palazos la cabeza, a ver si encuentra una disposición tal de partículas y energía que se asemejen a un cerebro, osea, que contradiga lo que acabo de enunciar. Y por favor que de ahí me lleve a la morgue Saludos!
  8. Muy interesante la verdad toda la discusión, o intercambio de ideas, como quieran llamarlo Y al respecto hay algunas cosas, que medio de puntilloso no me quedan del todo esclarecidas: La pregunta que me surge inmediatamente después de leer este concepto es: Y en los humanos... ¿no nos pasa exactamente lo mismo? Quiero decir, del mismo modo que AlphaGo tiene cierta complejidad en sus algoritmos pero que al fin y al cabo se reduce a input-decisión a tomar de AlphaGo-output (les pido encarecidamente que me corrijan que de informática no tengo ni un mínimo del lenguaje adecuado), ¿no funciona en nosotros un mecanismo similar, del tipo input-decisión del humano-output? Desde ese lado al menos, no veo la diferencia entre una máquina y un humano en su funcionamiento, pero me parece interesantísimo el tema. Ese fue un error de grueso de quien escribió la nota. En realidad, por lo que leí al respecto de AlphaGo, funciona (con mi lenguaje mediocre en informática) medianamente así: Como en el Go las posibilidades de respuesta del adversario por movimiento son muchísimo más altas que en muchos otros juegos de mesa (como el ajedrez), crear un algoritmo que por fuerza bruta calcule buenas 'respuestas' un par de movimientos adelante no sirve, porque las posibilidades escalan rámidamente unos cuantos ceros, y se hace imposible de computar. Por ende, ingeniosamente los de Google crearon un 'mecanismo' que 'ayuda' a AlphaGo a 'diferenciar' entre buenos y malos movimientos (tantas comillas porque no sé los terminos correctos que deben usarse en informática, y para que el pobre jwacko no ande sacando definiciones del diccionario todo el día mejor lo pongo en comillas ). Ahora bien, ¿cómo? primero, le 'dan' para que 'vea' una base de datos de la cual hay unos cuantos millones de combinaciones de movimientos que supongo son útiles o poderosos en el ámbito del Go profesional. A continuación, para mejorar se pone a prueba a AlphaGo consigo misma, a jugar una tanda de unas cientas de miles de partidas, así pone en prueba al algoritmo de fuerza bruta+la base de datos de buenos movimientos, para aprender nuevas estrategias e incorporarlas. Como una especie de 'memorización' cuando se comete un error, tiene una especie de 'mecanismo' en su programación que lo que hace es ya dejar por sentado, en base a una partida ya jugada, qué cagadas conviene evitar hacer. Osea, hasta ahí es una combinación de algoritmo de fuerza bruta+base de datos de buenos movimientos hechos por expertos+base de datos de cagadas que hizo con anterioridad el sistema (osea, lista de cosas que NO debe repetir en futuros juegos). Tomando todo eso de referencia, decide tras explorar sus bases de datos y calcular un poco (sumado a un poquitín de MUCHA ingeniería informática de avanzada de por medio), cual es el mejor movimiento en una determinada posición (en la que curiosamente se encuentra jugando). Por eso es que la explicación del escritor del artículo es errada, porque de tanto ahorrar escribir queda muy vaga la definición de lo que es capaz AlphaGo. Y en cierto modo no termina siendo del todo errado lo que dice quien estuvo a cargo de tipear esas palabras, porque al fin y al cabo, un humano que juega al Go puede calcular algunos movimientos adelante qué le conviene jugar (como hace AlphaGo), puede acordarse de buenos movimientos que vio hacer de parte de un profesional (como hace AlphaGo) y puede también acordarse cuándo metió la pata, para no volverlo a hacer (como AlphaGo). Osea que muy distantemente hablando, el accionar de este software se asimila al de un jugador humano de Go... Adhiero totalmente a la postura tuya Migue, en el mejor de los casos, evolutivamente hablando, los primeros organismos con sistema nervioso central se asimilaban bastante en nivel de cómputo al de algún software primitivo, donde no había muchas más funciones que las de 'comer' 'excretar' 'respirar' 'huir de estímulos dolorosos' 'reproducirse', y alguna que otra que se me escapa seguramente. Y del mismo modo que nuestras computadoras con componentes metálicos evolucionan en eficiencia, rapidez, capacidad, etc en el tiempo; las especies por el mismo principio, y dejándoles una ventaja de millones de años de desarrollo, pueden pasar de tener una habilidad de cálculo de una pequeña calculadora, a una máquina como la que es nuestro cerebro. Y eso no hace al cerebro menos 'maquinario', por el contrario, le da una complejidad increíble, pero que puede reducirse, al menos a mi parecer, al funcionamiento de una máquina como ninguna de tan compleja que es. Metele nomás!! El problema de justamente, elegir una fulción partiendo del libre albedrío ya puede entrar en conflicto, pero más que por el problema en sí que debatimos, pasa por algo más filosófico, y queda en decidir si existe o no el libre albedrío. Parece a priori que la respuesta es más que segura de que "sí", pero justamente soy de los que disiento al respecto. Y no es por meter el argumento evolutivo en todas partes, pero sigue siendo válido preguntarse: si tenemos libre albedrío, ¿en qué parte del proceso evolutivo del homínido lo 'obtuvimos'? ¿O acaso desde el proceso evolutivo de los mamíferos existía? ¿O de los vertebrados en general? ¿O de la vida en general? Del mismo modo, hago este planteo: si viene alguien que consideramos humano y nos dice que es consciente, no se contradice, y a cada cosa que le pidamos que elija, pareciera escojer libremente; ni dudaríamos de que está apelando a su libre albedrío. ¡Pero por supuesto que lo tiene!. Ahora, si luego de eso, el sujeto comienza a cortarse con un cuchillo, hasta mostrarnos que por dentro no tiene músculos y huesos, sino cables y acero, y nos dice que en realidad es un robot, entonces... ¿no posee libre albedrío? A eso me refiero con que es complicado dar justo la nota con el ejemplo del libre albedrío, porque depende de cada persona, puede existir o no el libre albedrío, y eso ya va mas por un lado filosófico, y no quiero entremezclar el hilo este que es muy interesante. Sólo que quería dar el comentario Vale decir que son muchas? La cantidad de partidas posibles de Go, estoy seguro, es mayor a la cantidad de átomos en el universo observable. Y eso se puede inferir sin saber ese número. Sólo hay que saber el número estimado de átomos en el universo observable (10^80), la cantidad estimada de partidas posibles de ajedrez (10^120), y que la cantidad de partidas posibles de Go es muchísimo mayor a la cantidad de partidas posibles de ajedrez [Partidas(Go)>(10^120)]. Fácilmente se obtiene, dado que 10^80 < 10^120 y que 10^120 < Partidas(Go), que entonces: 10^80 < Partidas(Go). Y sí, lo anterior fue una obviedad que quise poner en términos rebuscados Y pare cerrar, compañero Cisco, cientos de veces se subestimó el poder de la informática, fallando una tras otra vez en sus predicciones de la insuperabilidad de la mente humana. Yo no quiero apostar a que tu predicción va a fallar, pero mi plata la apuesto en la informática Saludos!
  9. Re sarpado el dibujo, que envidia loco jajajaaj. Te felicito, una genialidad Saludos!
  10. Muy interesante la verdad, gracias por compartir! Saludos
  11. Bienvenido al foro compa!! Saludos
  12. Bienvenida al foro Natalia!! De zona sur tenemos al flamante señor sebastianc, muy metido en el tema de las juntadas, y justamente de zona sur. Contactalo a ver que onda. Saludos!
  13. Una muy buena pregunta, sin dudas, la de Migue. Empero, a mi parecer hay que tener mucho en cuenta la palabra de Stephen Hawkins, que al respecto sostiene que no deberíamos responder para nada a un mensaje que envíen alienígenas. Y si nos descubrieran, la situación debería ser, realmente, más alarmante. Los 'por qué' apuntan todos al mismo problema: Recuerden lo que pasó cuando los españoles hicieron contacto con los aborígenes. Bastaron unas pocas invasiones para prácticamente aniquilarlos. Si en una relación humano-alienígena, nosotros tuvieramos una tecnología que, a comparación de la de los aliens fuera como la de un aborígen respecto a un español... ¿No sería un tanto arriesgado librar nuestra supervivencia a la buena voluntad de los del otro lado? ¿Mandaríamos un mensaje de 'Hola' a una civilización que no sabemos si es pacífica o destructiva? En todo caso deberíamos estar preparados para por si las moscas... ¿Hay algo más destructivo que un misil nuclear que seamos capaces de construir? ¿Es suficiente tal arma como método defensivo? Si respondemos a todas esas preguntas, quizás seamos capaces de saber qué hacer con mediana prudencia. Saludos!