lunes, marzo 28, 2016 

¡¡¡ Votemos por Blas de Lezo !!!

A ver, que no hay tiempo que perder: hay que votar por "Blas de Lezo" como nombre para un barco... inglés.

Resulta que los del Reino Unido han hecho una votación en internet para proponer y darle nombre a un nuevo barco de investigación y algún cachondo ha propuesto "Blas de Lezo" con la siguiente descripción:

"Fue uno de los mejores marinos del mundo e hizo grandes contribuciones a la investigación submarina británica"

con mucha retranca por la cantidad de navíos ingleses que envió al fondo de mar.

Por ahora va segundo.

La web para votar funciona a veces sí y a veces no (yo lo he conseguido en un par de intentos)

Visto en Europa Press

Etiquetas:

miércoles, marzo 23, 2016 

James E. Hansen y las conclusiones de sus modelos de cambio climático


Este hombre se ha asustado al ver las conclusiones de sus modelos de clima y este verano las anunció a la prensa sin esperar a la revisión de expertos que se hace antes de publicar artículos en revistas científicas.

Esto causó bastante revuelo, y lo descalificó para muchos. Ahora se ha publicado oficialmente su estudio, detrás del cuál hay otros 18 científicos representando a la élite de esta disciplina. Pasó la revisión de los expertos con nota. Ya nadie cuestiona el trabajo (ningún científico, porque ya sabemos que políticos  y medios lo cuestionarán según quién les pague)

Si no teneis paciencia para verlo, sus conclusiones son que hay interacciones no lineales que hacen posible un cambio repentino en el patrón climático. Supertormentas en el Atlántico y como mínimo dos metros de subida del nivel del mar en este siglo. Las ciudades costeras anegadas y Holanda bajo el mar. También dice que una vez modificado el patrón climático, tardaría unos 200 años en recuperarse incluso si dejásemos de emitir CO2 de repente.

Poneos los subtítulos de Google.

 

OLO 3D SLI printer por $99

Pa fliparlo. El que no corre, vuela.

Una impresora SLI que usa la luz del teléfono para curar la resina. Supongo que la resina será cara, y como un teléfono no da mucha luz, tardará bastante.

Pero aún así. Parece extremadamente simple y fácil de usar. Supongo que la siguiente generación la harán para tablets y se podrán hacer cosas más grandes. Y supongo que aparecerán resinas de marca blanca.

lunes, marzo 21, 2016 

DJI Phantom 4


Un dron con un poquito de AI que lo hace más independiente.

Muchas de las secuencias que vemos en las pelis de Hollywood serían fáciles de rodar con este drone, que "sólo" cuesta 1300 Euros. Para lo que hace, es baratísimo. Rueda en 4K o en full HD con una cámara buena. Y se mueve él solito. Y no se choca con las cosas, y vuelve a casa si pierde la conexión. Y tiene una autonomía de media hora.

El chip que implementa la AI del drone es el mismo chip que está utilizando Google en su "Project Tango". Es una de las primeras aplicaciones del chip. Ahora es fácil añadir AI a la capa de procesado de imagen de todo lo que lleve una cámara. Los cacharros con cámara se van a volver más inteligentes, y se abre la veda a aplicaciones en que es útil que una máquina se mueva independientemente.


miércoles, marzo 16, 2016 

Alpha Go 9p Honorario

martes, marzo 15, 2016 

AlphaGo 4 - Lee Sedol 1


Y la serie terminó. Al menos Lee consiguió el punto del honor, y de momento AlphaGo no es insultantemente superior, aunque la próxima vez que miremos seguramente lo será.

lunes, marzo 14, 2016 

Brainwashing

Este documental no lo pondrán en la sexta. Cuanto más "igualdad" se consigue, más eligen unos y otros caminos diferentes. Uno de los paises más igualitarios es Noruega. Este documental viene de allí. Muy, muy interesante.

 

Deep Optics Omnifocals

Más cosas de gafas.

En este caso se trata de unas gafas con enfoque variable. El foco se varía eléctricamente. Se aplica una corriente a un cristal líquido emparedado entre cristal normal.

La cantidad de corriente aplicada se controla a través de un sistema de sensores que detecta cuánto cruzamos los ojos. Cuando miramos cerca los cruzamos más que cuando miramos lejos. El sistema mide la distancia interpupilar a través de unas camaritas insertadas en la montura. Dependiendo de la distancia interpupilar elige un foco u otro. Se acabaron las bifocales. Y la presbicia. Empiezan a probarlas en un par de añitos.

Otra cosa para la que se pueden utilizar es para gafas de VR, para no tener el foco fijo. Pueden detectar el cruce de ojos y ajustar el foco para que sea el que sería si no tuviésemos las gafas VR puestas y mirásemos a un objeto a esa distancia. Irónicamente, los que tenemos presbicia deshabilitaríamos esa función, que nos devolvería a los problemas de la realidad real, en la que no vemos bien de cerca :-)




Por otro lado, ya se ha conseguido regenerar el cristalino del ojo de niños con cataratas congénitas utilizando técnicas de medicina regenerativa. La razón por la que se ha tomado este camino y se ha aplicado primero a niños es que las lentes intraoculares que se insertan a pacientes de cataratas son de tamaño fijo. Eso está bién para los abueletes, pero los ojos de los niños crecen y las lentes dejan de funcionar. Más información aquí.

Cuando tengan los niños controlados, nos tocará a nosotros, y en lugar de gafas chupichulis, usaremos nuestros propios cristalinos regenerados y nuevecitos. O igual llegan los cristalinos regenerados antes que las gafitas.

Y si esa técnica no funciona, porque nuestras células madres están viejas y se niegan a regenerar el cristalino rápidamente, todavía queda la opción de hacerlas crecer fuera del cuerpo, construir un cristalino de repuesto con células madre e insertarlo. Lo han probado ya con animales de laboratorio. Más información aquí. En este caso no sólo están consiguiendo hacer crecer cristalinos, sino también córneas listas para transplantar. Al final, posiblemente todo el ojo.

sábado, marzo 12, 2016 

Google AlphaGo 3 Lee Sedol 0

Como el campeonato es a 5 partidas, ya está ganado. Jugarán las otras dos, pero la historia se ha acabado. KO. Kaput. AlphaGo ganó.

Por fín ya podemos clasificar el tipo de pensamiento estratégico que implementa este algoritmo como "no inteligencia" igual que hemos hecho con todas las demás tareas cognitivas que hemos implementado con máquinas. Según la opinión de muchos, no es inteligencia. Sólo "simula" inteligencia. La inteligencia es otra cosa y la máquina no entiende lo que hace. Funciona mecánicamente.

En cuanto a mí, lo que me parece es que como dijo Edsger Dijkstra "La cuestión de si las máquinas realmente piensan es tan interesante como la cuestión de si los submarinos realmente nadan".

Según comentaristas, AlphaGo ha hecho movimientos "originales", "interesantes" y "creativos". Cada vez es más difícil definir la inteligencia como lo que las máquinas no hacen, que es lo que se ha hecho hasta ahora.

miércoles, marzo 09, 2016 

Google AlphaGo

Scoreboard

Hace un par de meses puse una entrada sobre el go, explicaba que el go, el último juego en el que los humanos batían a las máquinas, había caído ante una implementación de Google que usa Deep Learning.

Cuando escribí la entrada, esta implementación, a la que llaman AlphaGo, acababa de batir al campeón de Europa de go.

Pero en Europa no hay mucha tradición de go y los jugadores potentes están en Asia. Los jugadores asiáticos están al menos un par de niveles por encima de los de Europa. El siguiente paso de Google fué organizar un campeonato a cinco partidas contra el campeón del mundo mundial, un coreano que se llama Lee Se-dol. El premio es un millón de dólares así que el tío aceptó rápidamente.

Hoy se ha celebrado la primera partida. AlphaGo ha ganado. El coreano se ha ido rascándose la cabeza pues pensaba que iba a ganar.

Aquí hay un resumen de la partida y más información: http://www.bbc.com/news/technology-35761246

Hay algunos detalles interesantes:

El go tiene más posiciones diferentes que átomos hay en el universo, así que no se puede atacar con fuerza bruta explorando posiciones, porque su número se multiplica por 200 con cada nivel de búsqueda. El algoritmo tiene que entender la posición de una forma estratégica e "intuitiva" a partir de las configuraciones locales. El consenso era que las máquinas no ganarían a los humanos en al menos una década. Esto ha pillado de sorpresa a mucha gente.

La versión que batió al campeón de Europa es más débil que la que se enfrenta al campeón del mundo. Durante estos dos meses, sin cambiar la programación, ni el hardware, Google ha dejado que la máquina juegue contra sí misma (no hay ya nadie de quién aprender) y mejore su juego aprendiendo de sus propios errores. No sabemos cuánto ha aprendido durante este tiempo (ya no podemos compararla con jugadores humanos) pero sabemos que esto mejora su juego. Y dos meses son un montón de tiempo para una AI.

Otro detalle es que viendo el vídeo de la partida, había una persona poniendo las fichas en el tablero donde le decía la máquina. Aquí el "robot" teledirigido era la persona y su cerebro sólo se utilizaba para poner las piececitas en su sitio. Pensar, lo que es pensar, la que pensaba era la máquina. Esto reduce a la persona a las "tareas inferiores" y la máquina a las "superiores". Da mucho que pensar. Es fácil imaginar una empresa en la que las decisiones serias las tomen algoritmos que, por la naturaleza del deep learning no sabremos cómo funcionan, sólo que funcionan. Y la gente nada más esté encargada de ejecutarlas sin pensar.


 

Sistema de localización de la HTC Vive

This Is How Valve’s Amazing Lighthouse Tracking Technology Works

Es una de las cosas más chulas que he visto en bastante tiempo. A mí esto no se me había ocurrido. Una solución simple y elegante.

Le llaman Lighthouse (como un faro marítimo).

Hay un emisor que se coloca fijo en una esquina de la habitación y emite señales en infrarrojo. El emisor lanza un destello y hace un barrido con uno de los dos de láseres. Después lanza otro destello y hace un barrido con el otro.

El receptor símplemente utiliza células fotoeléctricas. Para cada una de ellas compara el tiempo transcurrido entre los destellos de sincronización y las señales de barrido. Esto nos da dos ángulos perpendiculares.

Si añadimos unas cuantas células fotoeléctricas a un objeto rígido, como sabemos las posiciones relativas de unas células con respecto de otras y tenemos el par de ángulos de cada célula fotoeléctrica con respecto del faro, podemos calcular la distancia y la rotación del objeto rígido en el sistema de coordenadas del faro.

Simple, fiable, preciso y extremadamente barato. Con un par de motores, un par de láseres y unos leds nos hacemos el emisor. Para el receptor basta usar células fotoeléctricas que son más baratas que las pipas. El cálculo es muy sencillo, con lo que no usa casi recursos y no introduce latencia. El sistema no necesita calibración.

Al ser los receptores tan baratos, pequeños y simples, podemos ponerlos en un montón de cosas y con el mismo faro funcionarán todos. Podemos hacerlos redundantes por si alguno de ellos se tapa. Por eso las vive vienen con mandos incluidos. Tienen que ser muy baratos.

Nada nos impediría hacer un traje lleno de sensores, o una pelota, o un robot.

Impresionante idea.


sábado, marzo 05, 2016 

Evolucion grafica de los juegos desde 1952


Pa mi gusto, los mayores saltos han sido Wolfenstein y luego Crysis (hace diez añitos de eso).

 

La siguiente ronda de mejoras va a necesitar mucha potencia gráfica. Las gafas VR necesitan 100 FPS con una resolución efectiva de 4K (ahora se usa HD y el objetivo son unos 60FPS). Eso es un montón. Los chicos de Occulus recomiendan una NVidia GTX 980 TI, la más alta de la gama, que cuesta unos 600 Euros. Una tarjeta que desarrolla 1 Tera Flop y que hace sólo diez años hubiese entrado en el top 500 supercomputers. Y eso sólo para conseguir un rendimiento "aceptable". Así que van a necesitarse un par de generaciones de GPUs para que el hardware de renderización esté a la altura y poder jugar con comodidad en VR sin arruinarse.

Eso sí. A día de hoy quien se quiera gastar tres o cuatro mil euros en un ordenador de juegos podrá estar inmerso en mundos virtuales enormes, con gran nivel de detalle, motores de física gestionando las interacciones de los objetos y caractéres bien renderizados con AI decente. Hace quince o vente años, extrapolando la velocidad de progreso, se veía que se podía llegar a esto, pero nada nos aseguraba que se llegaría. Era ciencia ficción.

Si el progreso exponencial se mantiene (y hay dudas porque la ley de Moore nos ha dejado tirados y se está ralentizando mientras llega otro "cambio de paradigma") en diez años tendríamos otro incremento de 100 en la capacidad. Para qué se usaria? Pronto los gráficos no necesitarán mejoras. No necesitamos mundos 100 veces más grandes ni con 100 veces más detalle. Es como el cambio de las teles de HD a 4K. No ganas casi nada. Así que toda esa potencia de GPU probablemente se use para AI y motores de física. Mundos complejos y realistas. Caracteres creíbles.

jueves, marzo 03, 2016 

Listado de gafas de VR

Ya que estamos, aquí está la colección de primavera de gafas de realidad virtual:
  • Occulus Rift

  • HTC Vive
Resultado de imagen de htc vive
  • PlayStation VR
Resultado de imagen de playstation vr
  • Gear VR
Resultado de imagen de gear vr

De ellas, Occulus Rift y HTC Vive están en la misma liga, tanto de prestaciones como de precio (alrededor de ochocientos lereles). Por lo visto las Occulus están más pulidas (son más cómodas y tal) y las Vive tienen más potencial (un FOV mayor, un espacio mayor en el que te puedes mover, los mandos incluidos son mejores), pero son más pesadas e incómodas.

Luego están las de la PlayStation, que todo el mundo dice que son bastante mediocres, aunque vienen con "maracas". Rondan los 300 euros. Y finalmente tenemos el Gear VR, que es un Google cardboard más currado y hay que insertar un teléfono para que la gente no se muera de la risa.

Leyendo artículos en el intenné y tal, parece que la experiencia aún es un poco básica, que la gente se marea, que no hay una "killer app" que les dé utilidad a las gafas y que las buenas (Occulus y Vive) son caras para la gente normal. Osea, que sólo las comprarán idiotas obsesionados con las novedades tecnológicas. Yo por ejemplo.

Supongo que la cosa irá tomando forma en la segunda ronda de modelos en un par de añitos. Pero parece haber interés cuando HTC había colocado 15 000 unidades a los 10 minutos de abrir la web dónde las venden el pasado 29 de Febrero. A 800 euros por unidad, movieron 12 millones de euros en un momentico. Supongo que eso ya justifica el gasto en desarrollo.



miércoles, marzo 02, 2016 

Proyectando imagenes con láser en la retina

New glasses project images directly onto retina with a mini-laser

Hoy estamos de gafas. Parece que se ha abierto la veda en la realidad virtual y aumentada.

Estas gafas japonesas se han pensado para gente que tenga problemas de visión. Proyectan una imagen en la retina usando luz láser.

Pero el siguiente paso según el fabricante es comercializarlas para aplicaciones de realidad aumentada. Como las Hololens de Microsoft o las Meta 2 del post anterior.

Dales cinco añitos...

Aquí: http://techxplore.com/news/2016-03-glasses-images-retina-mini-laser.html

 

Meta 2

Ale, otras gafas de realidad aumentada. Parecen la misma idea que las de Hololens de Microsoft, pero con más "Field of View" (campo de visión?).



Tiras cómicas

El Tiempo

tiempo en Madrid

Cambios de divisa

Buscador Torrents

en isoHunt
en The Pirate Bay

Archivos y búsquedas

  • CRIPTONOMICON
  • Legión Espacial
  • Impulsado por Blogger
    y Blogger Templates