viernes, agosto 14, 2015 

Presupuestos 2016

Para seguir la tradición os pinto los presupuestos para 2016:

Y el resumen de siempre (en miles de millones de euros):

  • Se incrementa el gasto en SS (pasa de 115 a 120) pero se prevén más ingresos por cotizaciones (de 110 a 117) por lo que se prevé un déficit menor (de 5 a 3)
  • Asumen que el resto de transferencias y personal y otros gastos e inversiones será prácticamente igual (145) y un pequeño incremento en los ingresos por impuestos y resto de ingresos (de 151 a 154)
  • Los gastos financieros crecen (de 142 a 144) pero no tanto como de 2014 a 2015 (que subieron 12 de 130 a 142) Esta partida, como siempre, es la más fiable porque la mayor parte de las amortizaciones e intereses son ya conocidos y poco influirá lo que se puede hacer o dejar de hacer de aquí a fin de año.
  • Esto supone una rebaja en la necesidad de financiación que pasa de 142 a 137. Es la primera vez que se rebaja la previsión de la necesidad de financiación desde que comenzó la crisis.
Recordad que estas comparaciones son entre los presupuestos de 2016 y 2015, no entre los presupuestos de 2016 y lo que realmente ocurra en 2015, que sin duda se alejará bastante de lo presupuestado:


De regalo, un gráfico con la evolución de los PGE de 2012 a 2016:

Fijaos cómo lo que hay que pedir prestado (azul) se va incrementando cada año hasta 2014, se para en 2015 y se rebaja en 2016, pero la partida de gastos asociada que es la deuda e intereses (a la izquierda) se incrementa continuamente aunque cada vez menos.

Las transferencias a la SS se incrementan poco a poco y bastante establemente. Los ingresos por cotizaciones a la SS dan más botes, sin duda relacionado con la variación del nivel de empleo (que es quien genera la cotización)

Los gastos se mantienen estables al menos desde 2013 (la famosa austeridad) y los ingresos por impuestos crecen a saltos.

Os vuelvo a recordar que esto son los prepuestos, lo que hayan hecho realmente las cuentas del Estado no lo encuentro fácilmente con estas mismas agrupaciones que a mí me parecen muy sencillas para "leer" rápidamente los grandes números, pero seguramente las desviaciones sean más o menos estables por lo que las evoluciones serán bastantes similares.

Etiquetas: , , , ,

martes, julio 28, 2015 

La calor

Esto debe ser una Smartfryer (lo del ruido mola)

jueves, julio 09, 2015 

Hoy en el parlamento europeo

Un representante inglés hablando sobre Grecia:

viernes, julio 03, 2015 

Deep learning for Java

Alt text

En estos momentos se ha desatado una fiebre con lo del "Deep Learning", que son redes neuronales de las que estudiamos cuando la tesis del Casti. Ahora se han generalizado las matemáticas, se utilizan combinaciones de los distintos tipos de redes que se inventaron, y hay hardware (sobre todo las nuevas GPUs) que permiten aplicarlas a problemas interesantes. El hecho de que esto haya pasado ahora probablemente es una cuestión de capacidad de proceso, más que de teoría.

El caso es que la cosa se ha vuelto muy interesante, y tenemos una herramienta nueva, de una naturaleza totalmente diferente a los lenguajes de programación tradicionales, y que permite resolver varias clases de problemas. Principalmente clasificación y reconocimiento de patrones. Pero esta vez los conceptos y los patrones pueden ser complejos.

Todavía faltan muchas piezas para construir algo parecido a la capacidad cognitiva de los humanos. Modulación de la atención, memoria episódica, memoria de trabajo, razonamiento abstracto (simbolos), y un montón de cosas más que ni siquiera entendemos claramente.

Sin embargo, con cada aspecto de nuestra inteligencia que conseguimos modelar con máquinas siempre pasa lo mismo: la máquina lo hace mucho mejor que nosotros. Por ejemplo haciendo sumas, jugando al ajedrez, recordando información, indexándola, buscándo en ella, transmitiéndola.

Ahora tendremos máquinas que son capaces de reconocer patrones y establecer clasificaciones de una forma mucho mejor que un humano.

Esto se puede aplicar en muchos campos: Seguridad (reconociendo situaciones anómalas), traducción de textos, reconocimiento de imágenes, reconocimiento de voz, diagnóstico médico, detección de fraudes, estrategias de inversión, márketing, personalización y mil cosas que aún no se han pensado. Y en todas estas aplicaciones la máquina lo hará de una forma tan superior a los humanos que ni siquiera intentaremos establecer comparaciones. De la misma forma que no comparamos la capacidad de una calculadora de bolsillo con la de un humano a la hora de hacer cuentas.

Cuando el sistema de seguridad de un aeropuerto pida a los guardias que arresten a un tío que no parece diferente a los otros, y se compruebe que es un carterista, nadie se parará a pensar cómo ha llegado el sistema de seguridad a esa conclusión. Bueno, quizá al principio. La explicación podría ser la que daría Sherlock Holmes en uno de sus casos: "Tenía unos zapatos de una marca que llevaban otros carteristas que hemos pillado. En lugar de moverse por el aereopuerto en las mismas direcciones en que se mueven los viajeros normales pasó dos minutos más de lo normal en la zona donde más aglomeración había. Sus rasgos concuerdan con los de un clan familiar que se dedica a esto. Y el coche de dónde salió, sigue parado a la puerta y en marcha". Luego nos acostumbraremos a no preguntar.

Ya lo estamos sufriendo con Facebook. Aunque tú no subas información personal, otra gente lo hace. Facebook busca tu cara en las fotos que suben otros y las etiqueta. Aunque no tengas página, Facebook tiene un perfil tuyo. Como diría el Cyborg, la resistencia es inútil.

Bueno, a lo que viene todo esto es a que hay un grupo de gente haciendo código abierto en java con implementaciones de deep learning:

http://deeplearning4j.org/

Ahora mismo lo que me gustaría es estar en el paro y tener tiempo para meterme a fondo con ello. Al fín y al cabo los conceptos son los que hemos estado manejando todos estos años. No debería ser muy difícil ponerse al día. Sólo que esta vez los podría aplicar a problemas que no sean púramente teóricos.










jueves, julio 02, 2015 

Deficit en USA.

Grecia es sólo un caso extremo de lo que pasa en todo occidente. Esto no se arregla fácilmente:







U.S. Debt Chart

lunes, junio 29, 2015 

El dinero está fluyendo hacia la inteligencia artificial.


 Parece que la cosa está explotando.

jueves, junio 25, 2015 

Reconocimiento de voz en Google


Image result for hal
He leido un artículo donde un ingeniero de Google que trabaja en deep learning (redes neuronales) dice que han pasado de una tasa de error del 23% en reconocimiento de voz en 2013 (casi una de cada cuatro palabras) a una tasa de error del 8% este año (menos de una de cada diez). 

Si siguen progresando a este ritmo, reduciendo la tasa de error en dos tercios cada dos años, podrían llegar a tasas de error por debajo del 1% a finales de la década.

Evidentemente los casos que les quedan son los más difíciles. La mayor parte de las palabras que oimos no las entenderíamos si vienieran sueltas, con lo que el contexto da mucha información. El contexto puede ser sintáctico o semántico. Por supuesto la parte difícil es la semántica, así que he hecho una prueba con mi teléfono. Le he picado al microfonito de Google search y he dicho:

ay, ay, que daño! y luego: ahí hay un caballo.

Evidentemente, para decidir entre "ay", "ahí" y "hay" tienes que utilizar tanto el contexto sintáctico como el semántico.

El resultado? reconocimiento perfecto. De hecho ví cambiar en los resultados el hay por un ay en el primer ejemplo cuando dije "que daño". Claramente el sistema reconoce la frase completa. No va palabra por palabra. Impresionante. Haced la prueba.

Y esto teniendo en cuenta que funciona en tiempo real y que el número de usuarios puede ser brutal porque a medida que va siendo más fiable, se utiliza más. O es extremadamente eficiente en cuanto a recursos o da miedo pensar la cantidad de ciclos que están utilizando para este servicio.

Para poder reducir aún más la tasa de error el sistema debe empezar a mirar contextos más amplios, usos del lenguage, jergas especializadas, recordar lo que has dicho en frases anteriores, de qué tema estás hablando, etc... Esto lleva el problema bastante lejos de lo que es el puro "dictado", porque para tomar ese tipo de decisiones hay que utilizar contextos más complejos y más abstractos, reglas y usos del lenguage no habituales, y supongo que un montón de cosas más. Cada punto de reducción de la tasa de errores a partir de ahora significará que el sistema "entiende" más cosas en el sentido de "sentido común".

Por supuesto en el momento en que empiezas a entender de lo que se está hablando se abren un montón de posibilidades. El día que a Google se le ocurra utilizar esto para desarrollar un sistema de atención al cliente por voz la lían. Integrando todos los datos que se tienen sobre tí, una base de conocimento sobre el negocio y un contexto bien delimitado. Un sistema así tiene que ser superior al típico currito de centro de atención al cliente, que tienen una rotación enorme, no saben quién eres, de qué hablan, y muchas veces son extranjeros, con lo que su "tasa de error" en reconocimiento de voz puede ser mayor que la del sistema de google. El tema no es que sea mucho más barato, que lo sería. El tema es que funcinaría mejor.

Así que ojito, que la inteligencia artificial está avanzando a toda pipa últimamente y vamos a empezar a ver gente quedarse sin trabajo en cantidades ingentes.

Visto aquí:


Tiras cómicas

El Tiempo

tiempo en Madrid

Cambios de divisa

Buscador Torrents

en isoHunt
en The Pirate Bay

Impulsado por Blogger
y Blogger Templates