miércoles, 25 de diciembre de 2013

Google y Facebook quieren vivir de contenidos de calidad, pero ¿pueden?

Google y Facebook quieren vivir de contenidos de calidad, pero ¿pueden?

A lo largo del año que ya termina, grandes plataformas de contenidos en la red como Facebook y Google han anunciado e implementado cambios que consisten en algo que bien podría sonar a obviedad, o a redundancia: la apuesta por los contenidos de calidad.

Por ejemplo, Facebook ha modificado su algoritmo para que dé prioridad a artículos “relevantes” por encima de memes; Google trabaja desde junio en incorporar a sus resultados de búsqueda lo que ha llamado “in-depth articles” (o artículos en profundidad); y el que fuera cofundador de Twitter y Blogger, Evan Williams, trabaja en Medium, una plataforma que pretende que dejemos de ser esos consumidores compulsivos de titulares y flashes en los que, de un tiempo a esta parte, nos hemos convertido.

Ésa parece ser, pues, la nueva línea por la que apuestan las tecnológicas: contenidos editoriales de calidad, lo que nos hace pensar en artículos profundos, elaborados y, por tanto, se supone, no aptos para consumir desde el móvil en dos paradas de metro. Al escuchar estos anuncios, sin embargo, surgen, al menos dos dudas: ¿Cómo decidirán los algoritmos y motores de búsqueda por nosotros qué es relevante y qué no lo es? Y ¿es posible ahora ralentizar ahora nuestra voracidad en el consumo de contenidos digitales?

¿Existe el algoritmo perfecto? ¿Existirá?

Sobre la primera pregunta, Facebook parece tener dos respuestas más o menos concretas. Por un lado, el responsable del muro de noticias de Facebook, Lars Backstrom, mencionó hace poco en una entrevista para AllThingsD que cuando decía “contenidos de calidad” se refería a “historias de 1.000 palabras” publicadas en webs como la mencionada. Por otro, ahora se especula con que la adquisición por parte de la compañía de Mark Zuckerberg de la startup Face.com responda, no a planes de reconocimiento facial, como en un primer momento se dijo, sino a un interés en el reconocimiento de las imágenes y la calidad de éstas. Una tecnología capaz de ello permitiría que Facebook estableciera, como criterio automático de distinción de contenidos, la calidad de sus fotos principales.

Sin embargo, ¿es suficiente medir factores como el número de palabras o la resolución de las fotografías para determinar algo tan abstracto como la calidad y relevancia de un artículo? Los algoritmos persiguen desde sus inicios lo que nosotros entendemos por relevancia, de la misma forma que los objetivos digitales intentan imitar al ojo humano: se acercan, crean nuevos escenarios muy interesantes, pero no hay manera de asegurar, ahora mismo, que lleguen algún día a ser la misma cosa.

¿Puede Facebook ser, de repente, lo que Zuckerberg quiere que sea?

En cuanto a la segunda cuestión, Facebook también puede ofrecer algunas pistas en cuanto al comportamiento de los usuarios, y éstas no resultan muy alentadoras, aunque no sean, ni mucho menos, absolutas ni definitivas. La compañía lleva meses trabajando en su nuevo rediseño, anunciado en marzo pero sin fecha prevista de lanzamiento, puesto que los cambios previstos no están obteniendo, al menos eso se rumorea, la respuesta esperada en los usuarios.

El problema, señalan muchos, es la confrontación entre lo que Zuckerberg y Chris Cox desean, que es un Facebook parecido a Flipboard, cuyos usuarios consulten cada mañana junto a un nutritivo desayuno y un café calentito para empezar el día bien informados, y lo que de verdad funciona entre su audiencia: una vía de comunicación con los seres que nos importan en la que los memes y otro tipo de contenidos fáciles y digestivos, al estilo de 9Gag.com y BuzzFeed, se propagan como la pólvora. Parece que, de momento, las fotos de gatitos enfadados dan más clics en esta red que el análisis y la reflexión, al menos que el análisis y la reflexión tal y como éstos se han entendido en las páginas impresas de siempre.

Medium: una tercera vía

El cofundador de Twitter, Evan Williams, inmerso ahora en el proyecto Medium, parece tener una visión algo diferente del asunto. Medium ha sido definido por quienes la conocen como una plataforma de contenidos que mezcla el rigor de The New York Times y la apertura y creatividad de la blogosfera, y su equipo trabaja en un algoritmo que intentará no centrarse en el número de páginas vistas como el único medidor del éxito (y el valor de las publicaciones). Según Williams, que también fue alma mater de Blogger, “la mayoría de las noticias que leemos no nos importan”, y la gente “estaría bastante mejor si pasasen más tiempo leyendo ideas interesantes e inspiradoras y menos consumiendo noticias”. Lo que busca Williams, a través de Medium, son historias viralizables pero también interesantes, en las que la gente sea capaz de invertir su valioso tiempo, puesto que el algoritmo que su equipo propone quiere atender, entre otros criterios, a la duración de las visitas a los artículos, entendiendo, así, que cuánto más tiempo dediquemos a la lectura de un texto, más merece éste la pena (de lo contrario, habríamos cerrado la ventana).

Aún en proceso de construcción, la idea de Medium es una aproximación interesante, aunque todavía incompleta, a algo dificilísimo de medir y, por tanto, de predecir, de forma automática: qué requisitos deben cumplir las publicaciones en la red para ser no solo un éxito de crítica, sino también de público.

A Williams le mueve, en sus planes, un convencimiento: el de que los medios tradicionales han fallado en su propósito de captar y satisfacer el interés de la audiencia. Si aplicamos dicha afirmación a la red, muchos dirán que los medios han fallado también en la transición a lo digital, pues pocos han sido capaces de construir una fórmula que permita crear contenidos que no solo generen interés, sino que, además, generen un interés muy concreto, capaz de mover a la audiencia de la forma exacta para ser rentables, y que dicha rentabilidad permita, también, que todos los miembros de una redacción coman caliente cada día.

Ahora son los contenidos los que ‘rastrean’ a Google

Los algoritmos y los robots rastreadores de Google han sido creados para perseguir el contenido de la red; sin embargo, la esclavitud del SEO y de los clics ha dado la vuelta a la tortilla, y hace tiempo que son los creadores de contenidos los que persiguen a Google, desesperados por obtener un buen posicionamiento en sus resultados de búsqueda: publicando cada hora, añadiendo incesantes listas de palabras clave en negrita y buscando la viralización constante a través de las redes sociales.

Esa gigantesca maquinaria ha creado, cual drug dealer, a un público voraz y compulsivo, al que ahora, los tótems de plataformas como Google y Facebook, piden que se convierta en un lector calmado y reflexivo, capaz de digerir y gestionar con inteligencia y precisión la avalancha de contenidos que cada día vuelcan sobre él los timeline de sus redes sociales y agregadores. La maquinaria sigue funcionando sin descanso; habrá que ver si sus conductores son capaces de redirigirla antes de que sus engranajes salten por los aires.

Foto cc:  perdido en tierras ignotas






from TICbeat http://feedproxy.google.com/~r/rwwes/~3/ZmlzM6dgAuA/story01.htm