sábado, 30 de agosto de 2014

Los historiadores ante la competencia que el ‘big data’ ejerce

Del big data se han dicho muchas cosas: que puede ayudar a predecir el ganador de unas elecciones presidenciales, el resultado de un campeonato de fútbol, o el patrón de difusión de una epidemia. Pero hay quien cree que puede ayudarnos también a predecir a dónde se dirige el mundo gracias al análisis de grandes cantidades de datos históricos.

Ésa es, al menos, la teoría de Kalev Leetaru, científico de datos en la Universidad de Georgetown de Washington que ha procesado a través de la herramienta Google Big Query la base de datos GDELT, que recoge innumerables eventos desde 1979, procedentes de medios de comunicación en más de 100 idiomas. Lo que hizo fue procesar 25.000 millones de registros para definir en pocos minutos una serie de patrones de datos que se repiten cada cierto número de años. Uno de los ejemplos incluidos en su blog correlaciona la cobertura periodística sobre Turquía entre diciembre de 1998 y febrero de 1999, y sobre Ucrania entre febrero y abril de 1999 [ver más abajo]. Según explica el mismo Leetaru, “mediante la búsqueda de períodos históricos similares a lo que está ocurriendo ahora en mismo en determinado país, podemos ver lo que pasó después de cada uno de aquellos períodos como una previsión medible de lo que sucederá en un futuro en el país estudiado”.

GDELT Project Website

GDELT Project Website

Leetaru hace referencia en el título de su artículo a la ficticia ciencia de la psicohistoria (trasfondo de la recomendable saga ‘Fundación’ de Isaac Asimov), pero el verdadero debate es si la inteligencia artificial y la creciente potencia de computación no podrían empezar a reemplazar a algunas disciplinas intelectuales como ya hizo hace tiempo con el trabajo físico rutinario. En este sentido, los historiadores estarían a punto de iniciar el sendero en el que ya se encuentra la profesión periodística, en la que el big data (junto con la inteligencia artificial) ya está detrás de la aparición de los primeros redactores robóticos.

Pero muchos historiadores ven la pujanza del big data más como una oportunidad que como una amenaza: “Los datos son inútiles hasta que los hemos organizado en marcos conceptuales capaces de responder a las preguntas útiles [...]; organizar montones de pedazos de información en torno a un argumento coherente no es tarea fácil, por eso se necesita mucho tiempo para investigar y escribir una buena tesis de Historia [...] expresando nuestros conocimiento en forma de narraciones, los hacemos más accesibles de lo que nunca podrían llegar a ser los análisis de regresión multivariante”. Eso escribía el director ejecutivo de la American Historical Association, James Grossman, en el número de marzo de 2012 de Perspectives on History. Una posición similar mantienen en el blog The Historical Society en un post de 2013:

Cuando Chris Anderson (el autor de La Larga Cola y de La información quiere ser libre) escribió que ‘con datos suficientes, los números hablan por sí solos’, estaba totalmente equivocado: el análisis causal es una cosa extraordinariamente engañosa y matizable. Los conjuntos de datos independientes son neutrales y en gran medida inútiles [...] sólo cuando un narrador llega para dotar a la información de contexto y enfoque humano se le puede sacar provecho real al big data“.

Imagen | kern.justin via photopin cc






from TICbeat http://ift.tt/1peJrJE