miércoles, 1 de enero de 2014

¿Somos capaces de tolerar opiniones contrarias a la nuestra en la Red?

¿Somos capaces de tolerar opiniones contrarias a la nuestra en la red?

Dicen que, si bien la certeza es un estado absurdo, la duda es un estado incómodo. Las redes sociales y la web 2.0. agudizan el sesgo que las personas solemos aplicar cuando elegimos información que solo refuerza nuestros puntos de vista. Una investigación de la Universidad Pompeu Fabra de Barcelona intenta generar cambios en nuestro comportamiento en Internet, para así disminuir la incomodidad mental que nos provoca enfrentarnos a lecturas que desafíen nuestras creencias.

Como explica esta guía ilustrada del buscador DuckDuckGo, que no personaliza sus búsquedas, cada uno de nosotros obtiene distintos resultados al buscar lo mismo en Internet, porque éstos se ajustan a nuestro perfil basándose en los datos que se recopilan de nuestro historial y de nuestras interacciones en redes sociales (por ejemplo, las páginas en las que hemos hecho clic en ‘me gusta’ en Facebook). Debido a esto, dejamos de interactuar con contenido opuesto o desafiante a nuestros principios, lo cual puede provocar que polaricemos más y más nuestras posturas, si solo leemos información que las apoya.

Eduardo Graells-Garrido, que estudia un doctorado en investigación en la Pompeu Fabra, le explica a TICbeat que fue Eli Pariser quien recogió esta idea en el concepto “burbuja de filtros”, que se refiere, precisamente, a que “los sistemas de búsqueda y recomendación actuales están enfocados en entregar información que refuerza tus puntos de vista o bien es similar a la que ya has consumido”. Es decir, que cuantas más consultas realicemos, los resultados estarán cada vez más enfocada hacia nuestros puntos de vista.

Junto con Mounia Lalmas y Daniel Quercia, Graells-Garrido forma parte del grupo Social Media Engagement con el que Yahoo cuenta en Barcelona. Los tres están trabajando en un motor de recomendaciones que sea capaz, precisamente, de atacar este problema del sesgo y la polarización de nuestras posturas a través de la información que recibimos en la red.

Podemos pensar parecido que los del partido contrario

Nuestro sistema te recomienda gente que tiene posiciones opuestas a la tuya en temas delicados”, ha señalado el investigador. Como ejemplo de tema delicado, el grupo utilizó, en un experimento preliminar, la visión del aborto en Chile.

La opinión sobre el aborto funciona para esta investigación porque, según Graells-Garrido, mientras que “a menos que seas muy fanático del Real Madrid es difícil que decidas no conectarte con alguien porque sea del FC Barcelona”, en el caso del aborto, “sí es posible que, al conocer a alguien y saber que esa persona es de una tendencia contraria, establezcas una barrera que rompa todo tu interés por conocerla”.

El sistema en el que trabajan Graells-Garrido y sus compañeros recomienda a los usuarios que siga a personas con posiciones opuestas a la suya en temas sensibles, pero realiza dichas recomendaciones a raíz “de temas no sensibles que tengan en común”.  Es decir, que, como la mayoría de los buscadores, también busca contenidos de acuerdo con nuestras preferencias, pero no en todos los campos. Graells-Garrido cree que, si conoces a alguien a quien le gustan los mismos libros que tú, entonces es posible que, “al discutir de temas sensibles, (con posterioridad a haber establecido la conexión), el rechazo no sea tan grande y haya mayor disposición a escuchar lo que el otro u otra tiene que decir”. Como defiende el investigador,  “la primera impresión cuenta”, también virtualmente.

El círculo vicioso de escuchar solo a gente parecida a nosotros

Los motores de recomendación de redes sociales, señala Graells-Garrido, suelen recomendarte a personas que están conectadas con tus contactos o que comparten atributos contigo como, por ejemplo, la escuela en la que ambos estudiasteis. Según un principio de sociología llamado homofilia, nos cuenta Graells-Garrido, las personas tienden a conectarse con otras que son similares a ellas, así que este esquema de funcionamiento de las redes sociales provoca que, también en ellas, conectemos solo con gente que piensa de modo parecido a nosotros porque vive de forma parecida a nosotros.

Cuando le preguntamos por los resultados del experimento preliminar que realizó en Twitter en Chile, que, además, tuvo lugar en un momento tan delicado como el previo a las elecciones presidenciales, Graells-Garrido reconoce que el esquema de recomendación que él y sus compañeros están construyendo no basta por sí solo. Los usuarios y usuarias del sistema percibieron, nos cuenta, que las recomendaciones que se les realizaban tenían en cuenta “otros factores adicionales a la relevancia con respecto a sus perfiles”, y algunos de ellos, los que nunca habían tuiteado sobre el aborto, “no mostraron interés alguno en las recomendaciones” que se les sugerían, a pesar de que éstas no tenían nada que ver con ese tema.

“Sin embargo, el enfoque visual que utilizamos generó una reacción positiva que parece contrarrestar la reacción negativa a las recomendaciones”, comenta.

Un problema dentro y fuera de las redes sociales

El investigador ha recalcado que este problema de sesgo y polarización “no sucede solamente a nivel de redes sociales online”. “En la vida real también nos cerramos. Yo no creo que los sistemas nos vuelvan así (cerrados), ellos solamente agudizan nuestro comportamiento”, expresa.

En cuanto a si las grandes tecnológicas tendrán o no intención de cambiar esos algoritmos que, a veces, nos llevan a vivir en una burbuja de filtros, a título personal, Graells-Garrido cree que “es posible”. Pero recuerda que estas compañías solo buscan maximizar nuestro engagement, de forma que solo mejorarán sus algoritmos para ofrecernos mayor diversidad en tanto que nosotros mismos decidamos que la diversidad es valiosa y actuemos en consecuencia.

Foto cc: Simon Rankin






from TICbeat http://feedproxy.google.com/~r/rwwes/~3/HJjyDl5C_gU/story01.htm