martes, 1 de julio de 2014

Facebook y la cara oculta de la privacidad

El estudio con el que Facebook ha incendiado todos los medios de información ha servido para algo. Sus usuarios, y, entre ellos, especialmente los más afectados por el experimento de la red social, tendrán una perspectiva distinta sobre el uso de la plataforma. En marzo la revista Proceedings of the National Academy of Sciences publicaba una investigación realizada por un grupo de expertos en sociología de la Universidad Cornell y Facebook. El estudio, realizado en 2012, había implicado a un grupo de 689.003 de sus usuarios elegidos de forma aleatoria para analizar cómo se contagian las emociones en función de las palabras positivas o negativas contenidas por el feed de sus noticias. Estos estuvieron implicados de forma involuntaria en un experimento de una semana llevado a cabo por expertos en análisis de datos, que han permitido un algoritmo que omitiera contenido positivo o negativo de su feed de noticias. Los científicos no han llegado a ver el contenido de los posts, en cambio, han contado 4 millones de palabras positivas y 1.8 negativas. El resultado del estudio, según sus promotores, ha mostrado una tendencia de contagio emocional influenciada por el tipo de contenido: a pocas palabras positivas los usuarios recurrían a más palabras negativas y a pocas palabras negativas los usuarios contestaban con más palabras positivas. Los científicos de Cornell demostraron que el efecto contagio se producía cuando los usuarios estaban expuestos a la emoción sin tratarse necesariamente de una situación de interacción real. Todos estos datos y la forma en la que se han recabado han creado una ola de aversión que ha tocado un punto máximo este fin de semana. La mayoría acusan a Facebook de jugar con los sentimientos de los usuarios y de usarlos como cobayas.

La respuesta de Facebook

Uno de los miembros del equipo de expertos en análisis de datos de Facebook y participante en el estudio, Adam Kramer, ha contestado en un post oficial que el principal motivo de la investigación era la preocupación por cómo afecta a los usuarios el impacto emocional del contenido: “Consideramos que era importante analizar la preocupación común que al publicar contenido positivo hace que las personas se sientan negativas o marginadas. Al mismo tiempo estábamos preocupados de que la exposición a la negatividad de los amigos puede llevar al abandono de Facebook.”

A continuación Kramer niega el hecho que las noticias hubieran sido “escondidas” del feed de los usuarios explicando que las publicaciones estaban siempre visibles en el timeline de los amigos y podrían haber aparecido en una descarga posterior de noticias. El analista de Facebook también habla de la detección estadística de un impacto mínimo sobre los usuarios de esta forma indicando la creación de unas condiciones intencionadamente para analizar el comportamiento de los usuarios aunque sostiene que el resultado obtenido no justifica la ansiedad producida. La respuesta de Kramer no llega a empatizar mucho con los perjudicados, convirtiéndose más bien en una forma de justificación del proyecto que añade unas disculpas generales, pero sin asumir abiertamente la responsabilidad de los hechos.

Legal pero sin ética

Los investigadores condenan la falta de ética del experimento que ha implicado más de 689.000 usuarios involuntariamente para analizar el contagio de las emociones. Desde el punto de vista legal, Facebook tiene derecho a realizar este tipo de estudios desde el momento en el que el usuario crea su cuenta y acepta las condiciones de uso. En este caso, las críticas más fuertes han sido provocadas por la forma poco ética en la que la red social se ha beneficiado del tal consentimiento de los usuarios para realizar su experimento, ya que en realidad las condiciones que estos aceptan, tal como lo apunta el profesor de derecho de la Universidad de Maryland, James Grimmelmann, no estipulan el derecho de elegir si quieren participar en este tipo de investigaciones. El estudio, en cambio, especifica que Facebook  “ha sido coherente con la política de uso de datos que todos los usuarios aceptan antes de crear una cuenta y que constituye el consentimiento informado para esta investigación.”

El jurista considera el consentimiento una “ficción jurídica” diseñada para facilitar las interacciones online y específica algunos elementos de la normativa común incluida por la Política Federal para la Protección de los Sujetos Humanos:

1. una declaración de lo que implica la investigación, una explicación de los motivos así como la duración esperada de esta

2. una descripción de cualquier riesgo razonablemente previsible o molestia para el sujeto

3.  una explicación de la persona que se pueda contactar para obtener respuestas sobre el estudio

4. una declaración conforme la participación es voluntaria y que en caso de rechazo no se aplicarán penalidades y tampoco se perderán beneficios

La Política de uso de datos de Facebook incluye un enunciado general que no se acerca a ninguno de los puntos mencionadas más arriba. La conclusión del experto es evidente: “El estudio ha perjudicado a los participantes porque ha cambiado su estado de ánimo. Esto es malo incluso para Facebook.”

El experimento que ha contrariado a todo el mundo da un señal de alarma sobre el poder creciente de las redes sociales que tienen entre sus tareas cotidianos el análisis de bases de datos masivos de sus usuarios, muchos de estas investigaciones con fines lucrativos. Es una realidad que queda enmascarada entre decenas de páginas de condiciones legales que nadie tiene tiempo y paciencia por repasar pero que desgraciadamente allí es donde el usuario pacta los derechos y libertades de los datos que deja registrados online.

 

 






from TICbeat http://ift.tt/1raOyR8