« Home | Notificación de entradas y comentarios (y 2) » | Yo lo pensé primero: variador contínuo (CVT) o caj... » | Sitemeter: julio » | Encuesta » | Taco laser » | Cambiada la redirección de correo » | Yo lo pensé primero: ventanas que son paneles sola... » | Apagando fuegos » | La sociedad de autores de mierda » | 2.5 Gb/s para las casas francesas » 

martes, agosto 01, 2006 

Petaflop

Bueno, ya tenemos el primer superordenador con un petaflop de potencia de cálculo.

Como todos sabeis, un petaflop es 10^15 operaciones de punto flotante por segundo. Hasta ahora los superordenadores se medían en teraflops.

Es un ordenador japonés que van a utilizar para simular plegado de proteinas para la industria farmacéutica. O sea, que los superordenadores, entre otras cosas, nos van a servir para aumentar el tiempo y la calidad de vida.

Aunque no es más que un incremento de capacidad sobre el ordenador anterior, el hecho de que sea un petaflop es interesante. Lo primero es que el orden de magnitud del petaflop es el mismo que se piensa que desarrolla un cerebro humano, así que si ese ordenador costase 1000 dólares en lugar de 15 millones, estaríamos en que lo que se ha definido como la singularidad tecnológica.

Así que me fuí a la página de superordenadores en wikipedia y comprobé dos cosas. La primera es que poniendo los años en un eje y en el otro el logaritmo decimal (o sea, el número de ceros) del rendimiento de los chismes que tienen listados ahí, me sale una recta, un poquito curvada hacia arriba, incluyendo como último dato el cacharro japonés. O sea, que es una exponencial como una casa.

La segunda es que más o menos el precio de la potencia de un superordenador determinado pasa a costar 1000 dólares al cabo de 20 años de la construcción de ese ordenador. En otras palabras, el rendimiento del ordenador de sobremesa en el cuál jugais al solitario, es el mismo que el del cray más gordo de hace veinte años (más o menos el Cray 2-8 de 1985, con 3.9 GFLOPS). Aunque el ordenador que tienes en tu mesa es más fácil de programar y de propósito más general que el de hace 20 años, que era un ordenador vectorial especializado para ciertos algoritmos. Y además tienes la tarjeta de vídeo, que en muchos casos tiene más potencia (en flops) que la propia CPU.

Eso pone la singularidad a veinte años, treinta máximo, de hoy.

Por otro lado, hoy me he convertido en un hombre con un Terabyte de capacidad, (osea, entre todos mis discos duros suman un Terabyte) , al comprarme un disco de 300 Gb. Para ponerlo en perspectiva, un Terabyte es suficiente para almacenar 1000 genomas, ya que la cantidad de información presente en un genoma se ha cuantificado en más o menos 1 Gbyte. o sea, suficiente como para almacenar de sobra el genoma de todas las especies de mamíferos sobre la tierra, incluido el hombre.

Los órdenes de magnitud siguen cayendo... ahora a por el exa (10^18)

Un error creer que la singularidad tecnológica esta en el cálculo ...

... y no en la metodología (reglas de procesamiento)

Yo soy de la opinión, en cuanto al cálculo se refiere, de que sobreestimamos nuestra potencia y que esta ya se encuentra ampliamente superada, ya que en la evaluación de nuestra capacidad no partimos de la base que nuestro cuerpo es un sistema distribuido de multiproceso asincrono, y no un sistema centralizado donde sólo y exclusivamente el cerebro toma las decisiones, y por lo tanto, le asignamos ese poderio de cálculo.

Contestaros estas preguntas
¿El flujo o nivel hormonal, por poner un ejemplo, influye en las decisiones que tomamos, cuando en una misma situación con la misma información recibida se ponen en práctica resoluciones distintas?

¿Y es nivel hormonal, lo analiza el cerebro y de ahi el cambio, o simplemente es que varia la información por su influencia antes de ser procesada?

Esa potencia de cálculo es una cota alta de lo que se piensa que se necesitaría para simular el funcionamiento del cerebro.
Para mas información, hay un tío que se llama markram y que está haciendo una simulación fisiológicamente realista de una columna cortical (unas 10000 neuronas) utilizando un superordenador de ibm. En su simulación cada neurona no es un integrador, como en las simulaciones anteriores, sino que utiliza un sistema diferencial para modelar las corrientes de neurotransmisores a través de los canales iónicos de la neurona. O sea, a mucho nivel de detalle. De hecho utiliza nada menos un procesador por neurona.

El caso es que cuando con este sistema de modelado se tenga suficiente potencia para simular un cerebro entero, entonces no habrá mas huevos que freir, si el cerebro no es más que una máquina física, lo habremos reproducido y el resultado será algo que tendrá la capacidad de creatividad y la inteligencia y los demás atributos de un cerebro humano. Por cierto, que seguramente habrá que modelar más cosas además del cerebro humano, por que el cerebro no está aislado. Habrá que ponerle un cuerpo (con hormonas si tú quieres) y un mundo en el que interactuar. Un cerebro sin inputs ni outputs seguro que se atrofia.

A mí esto me recuerda la búsqueda de la piedra filosofal de los alquimistas. Se tiraron un puñao de siglos buscando cómo transformar el plomo en oro. No lo consiguieron, pero aprendieron lo suficiente y con los años, los químicos -sus sucesores- demostraron que NO se podía hacer. Y volvieron a fallar, porque con el descubrimiento de la estructura nuclear quedó visto que se podía hacer. Y cuando ya se puede hacer, pues no sive para nada (la energía para transformar el plomo en oro es -por el momento- más cara que el oro que se consiguiera y además, el oro sería radioctivo -supongo-).
En fin, que es una parábola sobre lo que opino sobre el tema este del cerebro: que no sabemos nada de lo que está por venir, ni dónde está la clave del asunto, ni ná de ná. Esperemos y a ver.

Solo que en este caso llevan como treinta años, y van avanzando a buén paso. Por lo menos ya son capaces de reconocer caras, jugar al ajedrez, construir un coche que llegue del sitio A al B él solito, clasificar por orden de importancia páginas web, hacer traducciones automáticas, reconocimiento de voz y un montón más de cosas que se me pasan. Hay que reconocer que es un problema muy complicado, probablemente el problema más complicado, pero si se pasa de no tener ni puta idea (el año antes de que Ramón y Cajal se pusiese a mirar neuronas) a lo que sabemos (y las aplicaciones que le hemos encontrado) medio siglo después, es acojonante.

leyendo esta noticia, esta claro que microsoft será el S.O. del futuro sin descusión ninguna.

si va a haber ordenadores petaflow

ningún sistema operativo peta mejor los ordenadores que microsoft

Publicar un comentario

Tiras cómicas

El Tiempo

tiempo en Madrid

Cambios de divisa

Buscador Torrents

en isoHunt
en The Pirate Bay

Archivos y búsquedas

  • CRIPTONOMICON
  • Legión Espacial
  • Impulsado por Blogger
    y Blogger Templates