25/04/2024
11:19 PM

Facebook, un laboratorio social sin límites

En medio de la reacción de los usuarios a un estudio sobre sus emociones, la red dice haber cambiado las reglas.

Nueva York, Estados Unidos.

Miles de usuarios de Facebook recibieron un mensaje perturbador hace dos años: sus cuentas iban a ser bloqueadas porque la empresa creía que eran robots o que usaban nom­bres falsos. Para volver a ingresar, los usuarios debían demostrar que eran personas reales.

Facebook sabía que la mayoría de los usuarios eran legítimos. El mensaje fue una prueba diseñada para intentar mejorar las medidas antifraude de la red social. Al final, ningún usuario perdió acceso de for­ma permanente.

El experimento fue producto del equipo de Ciencias de Datos de Fa­cebook, un grupo de más de 30 per­sonas con acceso exclusivo a uno de los tesoros más ricos del mundo: los movimientos, reflexiones y emocio­nes de 1.300 millones de usuarios.

El poco conocido grupo ocupó el centro de la atención esta se­mana tras la divulgación de infor­mes sobre un experimento en el que el muro de Noticias de cerca de 700.000 usuarios de Facebook fue manipulado para mostrar publica­ciones más positivas o negativas. El estudio halló que las personas que veían contenido más positivo eran más propensas a escribir cosas po­sitivas y viceversa.

La directora de operaciones de Facebook, Sheryl Sandberg, dijo el miércoles durante un viaje a In­dia que el estudio fue “parte de in­vestigaciones constantes que las compañías hacen para probar di­ferentes productos” y fue “mal co­municado”.

La empresa afirmó que tras las reacciones acerca del estudio está “realizando una evaluación seria de este proceso para realizar más mejorías”.

Hasta hace poco, el grupo de Ciencia de Datos operaba con po­cos límites, según un ex miembro del equipo e investigados externos. En una universidad, los investiga­dores probablemente habrían teni­do que obtener el consentimiento de los participantes en un estudio como ese. Facebook, en cambio, se apoyó en la aceptación de los usuarios de sus Términos de Servicio, que en ese entonces estipulaban que los datos podrían ser utilizados para mejorar los productos de Facebook. Esos tér­minos ahora dicen que la informa­ción de los usuarios podría ser usada para investigaciones.

“No hay un proceso de evalua­ción de por sí”, dice Andrew Ledvina, quien se desempeñó como científico de datos en Facebook entre febrero de 2012 y julio de 2013. “Cualquiera en ese equipo podía conducir una prueba”, cuenta. “Siempre están tra­tando de alterar el comportamiento de la gente”.

Recuerda un experimento peque­ño en el que él y un gerente de pro­ducto llevaron a cabo una prueba sin contarle a nadie más en la empresa. Las pruebas se realizaban con tan­ta frecuencia que a algunos científi­cos de datos les preocupaba que los mismos usuarios, cuya información era anónima, pudieran ser usados en más de un experimento, lo que afec­taría los resultados.

Facebook aseguró que, desde que condujo el estudio sobre las emocio­nes, ha implementado directrices más estrictas para el equipo de in­vestigación de Ciencia de Datos. A partir de al menos el inicio del año, las investigaciones más allá de las pruebas rutinarias de productos son evaluadas por un panel de un grupo de 50 expertos internos en campos como la privacidad y la seguridad de datos. Facebook no quiso nom­brarlos.

Los estudios de la empresa des­tinados a ser publicados en revistas académicas reciben una evaluación adicional de expertos internos en investigación académica. Algunos de esos expertos integran también el equipo de Ciencia de Datos, dijo Facebook, si bien no quiso nombrar a los miembros del panel.
Un vocero dijo que Facebook eva­lúa otros cambios.

Desde su creación en 2007, el grupo de Ciencia de Datos ha lle­vado a cabo cientos de pruebas. Un estudio publicado deconstruyó la forma en que se comunican las fa­milias, mientras que otro analizó las causas de la soledad. Una prue­ba evaluó cómo los comportamien­tos sociales se propagan a través de redes. En 2010, el grupo midió cómo “mensajes de movilización política” enviados a 61 millones de personas llevaron a usuarios de redes sociales a votar en las elecciones legislativas de Estados Unidos en 2010.

Adam Kramer, el autor princi­pal del estudio sobre las emocio­nes, dijo en una entrevista en 2012 en el sitio web de Facebook que en­tró a la compañía en parte porque era “el campo de estudio más gran­de en la historia del mundo”. Kra­mer, quien tiene un doctorado en psicología social de la Universidad de Oregón, explicó que en un en­torno académico habría tenido que conseguir que publicaran sus estu­dios y luego esperar que alguien los viera. En Facebook, “simplemente mando un mensaje a alguien en el equipo adecuado y mi investiga­ción tiene un impacto en unas se­manas, si no en días”.

Muchas investigaciones de Fa­cebook son menos polémicas que el estudio acerca de las emociones, ta­les como pruebas para hacer que los usuarios pasen más tiempo en la red social y hagan clic en más anuncios publicitarios. Otras empresas de In­ternet, entre ellas Yahoo Inc., Micro­soft Corp., Twitter Inc. y Google Inc., conducen investigaciones sobre sus usuarios y datos.

El reciente alboroto es “un vis­tazo fugaz a una amplia práctica”, asevera Kate Crawford, profesora visitante en el Centro para Medios Cívicos del Instituto Tecnológico de Massachusetts (MIT) y prin­cipal investigadora de Microsoft Research. Las empresas “real­mente ven a los usuarios como un banco de pruebas experimen­tales dispuesto” a ser usado a su discreción.