viernes, 28 de noviembre de 2014

Flickr ya puede saber qué tiempo hace en sus fotos

Los avances en las técnicas de reconocimiento de imagen acaparan parte del esfuerzo de compañías tecnológicas como Google y Flickr (plataforma de fotografía propiedad de Yahoo), que ya son capaces de identificar qué objetos aparecen en una imagen, qué relación mantienen entre sí y, ahora también, cuáles eran las condiciones meteorológicas cuando se tomó una fotografía.

El equipo de Yahoo ha publicado una entrada en el blog oficial de Yahoo Labs, su departamento de investigación, en el que da cuenta de la evolución de Yahoo Project Weather y Flickr Project Weather, dos iniciativas dirigidas a los fans de las “fotos del tiempo” en Internet, que, por cierto, son muchos.

Yahoo Project Weather fue lanzado al público a principios de 2013 como un ecosistema de fotografías de meteorología de gran calidad tomadas en todos los lugares del mundo. Éstas son enviadas por los usuarios al Flickr Project Weather Group, donde se comprueba su tamaño, su calidad y su contenido. Pero los usuarios envían millones de fotografías, así que se necesiten herramientas tecnológicas que ayuden a automatizar su criba.

Y, entre esas herramientas, está un sistema capaz de detectar cuáles son las condiciones meteorológicas que se muestran en una fotografía de un paisaje, así como de asignarles etiquetas que las describan en lenguaje natural, como “nublado”, “lluvia” y “tormenta”.

Y lo hacen no solo ciñéndose a la imagen en sí, sino tomando la información que proporcionan las herramientas sociales de la plataforma y acudiendo a sistemas de información geográfica, y recurriendo también al sellado de tiempo, un mecanismo en línea que permite demostrar la existencia de una serie de datos en un momento determinado. Por ejemplo, una tormenta a una hora concreta en un lugar preciso.

Flickr y Yahoo emplean para el filtrado de estas imágenes una red neuronal convolucional, como la que Google Research también está utilizando para describir qué sucede en las fotos, que es capaz de clasificarlas, transmitiendo la información que obtiene a una RNN o red neuronal recurrente que traducirá esos datos en una frase, como “día nublado”, que será la descripción de la fotografía.

Foto cc: Jesus Zamorano






from TICbeat http://ift.tt/1rDspHR