Tecnología

He aquí por qué Facebook está terminando los experimentos del día de las elecciones

¿Qué Película Ver?
 
Fuente: Thinkstock

Fuente: Thinkstock

Dado que el día de las elecciones brinda a los estadounidenses la oportunidad de elegir a sus senadores, congresistas y gobernadores y votar en las iniciativas de votación, la red social más popular del país hará su parte para empujar a sus usuarios a votar. Facebook ha terminado de ajustar la herramienta que muestra un botón prominente 'Estoy votando' o 'Soy un votante' para que los usuarios se dirijan a las urnas, y como informa Micah L. Sifry para Mother Jones, un unos millones más Se espera que de los 150 millones de usuarios estadounidenses de Facebook voten al menos en parte porque Facebook los alentó, con un poco de ayuda de sus amigos. Pero los esfuerzos de Facebook para promover la votación este año serán mucho más estrechos que en años anteriores, y mucho de eso tiene que ver con la política y la percepción pública de cómo la red social realiza su investigación.

La compañía llama a su herramienta para promover la votación durante la temporada electoral el 'megáfono de votantes' y, como señala Sifry, ha dejado a los usuarios en la oscuridad sobre el proceso de desarrollo de la herramienta. Facebook ha estado llevando a cabo experimentos en silencio para ver cómo puede influir en el comportamiento de voto de sus usuarios, estudiando cómo las noticias pueden afectar el interés de los usuarios en la política y la probabilidad de que voten.

¿Cuántos años ha estado Anthony Davis en la NBA?

Un experimento realizado durante los tres meses previos al día de las elecciones de 2012 aumentó la cantidad de noticias duras en las fuentes de noticias de 1,9 millones de usuarios de Facebook. Un científico de datos de Facebook informó que el cambio, sin previo aviso a los usuarios, aumentó considerablemente el compromiso cívico y la participación de los votantes.

Ese experimento fue solo la última incorporación a una serie de experimentos de investigación que Facebook ha llevado a cabo desde 2008, con el objetivo de aumentar la participación de los estadounidenses en las elecciones. Sifry informa que desde 2008, Facebook ha ofrecido a los usuarios una manera fácil de proclamar a sus amigos que estaban votando. Los científicos de datos de la empresa han experimentado con formas de sacar a la luz esa información en el servicio de noticias para aumentar la participación de los votantes.

En 2010, colocaron diferentes versiones del botón 'Estoy votando' en las páginas de 60 millones de usuarios estadounidenses para probar el impacto de cada uno y descubrir cómo optimizar el botón. Como explica Sifry, dos grupos de 600.000 usuarios sirvieron como control: uno vio el botón 'Estoy votando' pero no obtuvo información sobre el comportamiento de sus amigos, mientras que el otro no vio ningún contenido relacionado con la votación.

los papel resultante (PDF), publicado dos años después en Naturaleza revista bajo el título 'Un experimento de 61 millones de personas sobre influencia social y movilización política', citó un 'creciente interés en la capacidad de utilizar las redes sociales en línea para estudiar e influir en el comportamiento del mundo real' entre los investigadores.

El documento señaló que era 'una pregunta abierta' en ese momento si 'las redes en línea, que aprovechan la información social de las redes cara a cara, pueden usarse de manera efectiva para aumentar la probabilidad de cambios de comportamiento y contagio social'. Desde entonces, Facebook ha demostrado que las redes sociales pueden influir en el comportamiento de sus usuarios. El estudio de 2010 encontró que el botón 'Yo voté' era una forma convincente de ejercer presión social para que la gente votara.

El periódico señaló que “el mensaje social de Facebook aumentó la participación directamente en unos 60.000 votantes e indirectamente a través del contagio social de otros 280.000 votantes, para un total de 340.000 votos adicionales. Eso representa alrededor del 0,14% de la población en edad de votar de unos 236 millones en 2010. '

Si bien los investigadores de Facebook informaron que el estudio tuvo implicaciones importantes en la comprensión de cómo funciona la movilización política en línea, mostrando que la movilización social es más efectiva que la simple movilización informativa, también señalaron la importancia más amplia de la influencia social para lograr cambios en el comportamiento de los usuarios. Descubrieron que 'Mostrar caras conocidas a los usuarios puede mejorar drásticamente la eficacia de un mensaje de movilización' y concluyeron que:

Los mensajes en línea pueden influir en una variedad de comportamientos fuera de línea, y esto tiene implicaciones para nuestra comprensión del papel de las redes sociales en línea en la sociedad. Los experimentos son costosos y tienen una validez externa limitada, pero la creciente disponibilidad de datos de redes sociales en línea baratos y a gran escala significa que estos experimentos se pueden realizar fácilmente en el campo. Si queremos comprender verdaderamente, y mejorar, nuestra sociedad, nuestro bienestar y el mundo que nos rodea, será importante utilizar estos métodos para identificar qué comportamientos del mundo real son susceptibles de intervenciones en línea.

Si bien las intenciones de los investigadores con el experimento del día de las elecciones de 2010 y otros similares (como los experimentos de 2012 que supuestamente probaron si la ubicación o los diferentes mensajes en el botón 'Estoy votando' influyeron en la probabilidad de que los usuarios interactúen con él) con la intención de ayudar a Facebook a “comprender y mejorar nuestra sociedad, nuestro bienestar y el mundo que nos rodea”, la empresa parece haber perdido la confianza en que la intención puede protegerla de la mala prensa y la reacción de los usuarios sobre futuros experimentos sociales.

Un portavoz de Facebook le dijo a VentureBeat que la compañía ha optado por detener algunos experimentos , incluido el estudio a gran escala del megáfono de votantes, incluso cuando la empresa aún no ha revelado todos los detalles de sus experimentos con los feeds de los usuarios en torno al día de las elecciones de 2012. Según Mother Jones, los estudios de 2012 incluyen un experimento de Solomon Messing de Facebook para aumentar la prominencia de las noticias en los feeds de 1,9 millones de usuarios. La participación de votantes entre ese grupo aumentó del 64% a más del 67%.

Michael Buckley, vicepresidente de comunicaciones comerciales globales de Facebook, le dijo a Sifry que el público no recibirá todos los detalles hasta 2015, cuando se publiquen los informes académicos sobre los experimentos. Y como señala Sifry, la mayoría de los usuarios tienen poca idea de cómo la empresa cambia y experimenta constantemente en el algoritmo que llena el News Feed. La tensión sobre la decisión de Facebook de no revelar los experimentos que realiza con sus usuarios se elevó a un punto de ebullición durante el verano, cuando un equipo de investigadores académicos y científicos de datos de Facebook revelaron que habían alterado el contenido emocional de las fuentes de noticias de 700,000 usuarios, para determinar si las emociones se propagan de forma contagiosa a través de una red social.

Si bien el impacto del experimento de contagio emocional fue limitado, cruzó una línea ética en la mente de muchos usuarios. Muchos estaban enojados porque Facebook manipularía las emociones de los usuarios y su desconfianza hacia la empresa se profundizó. Pero, como lo ve Sifry, la desconfianza de los usuarios en la red social es solo una de las razones por las que la red social es reticente a revelar exactamente lo que ha sucedido en sus experimentos de promoción de votaciones.

Debido a que la base de usuarios de Facebook se inclina hacia los demócratas, el megáfono de los votantes probablemente empujó a más demócratas a las urnas que republicanos. Esa noticia no les sentaría bien a los republicanos en el Capitolio, y el temor a una posible reacción violenta podría ser una razón por la que Facebook está optando por mantener sus cartas cerca, incluso cuando el despliegue planificado del megáfono de votantes en las páginas de los usuarios en todas las principales democracias se mantiene. Las elecciones nacionales de este año aumentan aún más la necesidad de transparencia.

Buckley le dice a Sifry que para el día de las elecciones de 2014, Facebook desplegará el megáfono de los votantes sin ningún experimento de investigación adjunto. Casi todos los usuarios estadounidenses de Facebook mayores de 18 años verán el botón 'Yo voté', pero ese botón, según se informa, no será parte de un esfuerzo adicional para manipular el proceso de promoción de la votación, o medir cómo la red social afecta la participación de votantes entre sus usuarios.

Pero para Gregory Ferenstein de VentureBeat, la investigación del megáfono de votantes de Facebook es el 'estudio académico más importante sobre el valor de las redes sociales en la democracia hasta la fecha', y una investigación que no debería ser detenida por el miedo de Facebook a la prensa o la reacción política. (Después de todo, como señala, los experimentos de 2010 se encontraron con una respuesta positiva moderada y pocas críticas).

La capacidad de Facebook para aumentar la participación electoral en un 2,2% suena estadísticamente pequeña, pero es significativa para los estándares de las elecciones que se ganan en los márgenes. Ferenstein escribe que las campañas gastan millones de dólares para conseguir que 'unos miles' más de votantes acudan a las urnas, y la eficacia probada de los métodos de Facebook para conseguir que los usuarios acudan a las urnas es incomparable con los métodos tradicionales de aumentar la participación.

Para las próximas elecciones de 2016, Facebook está deteniendo sus experimentos. Todos los usuarios de Facebook verán el mismo botón, o ningún botón en absoluto, y Facebook no medirá cuántos usuarios animó a votar o si algunos tipos de mensajes son más efectivos que otros. Para Ferenstein, eso significa que Facebook está cediendo a la presión política para dejar de innovar, una decisión que él caracteriza como decepcionante y una concesión a los críticos que buscan controlar las decisiones de la red social.

Dos poderosas fuerzas parecen estar en juego en las percepciones del público (y de la prensa) sobre los experimentos de investigación de Facebook: la ética de los estudios versus el bien social que podrían tener. El efecto positivo de los estudios del megáfono de los votantes es, como demuestra Ferenstein, un argumento sencillo. La mayoría de la gente estaría de acuerdo en que cuantos más votantes (informados) lleguen a las urnas, mejor. Si bien la manipulación de Facebook de los feeds de los usuarios y, por lo tanto, su comportamiento parece intrusiva, no daña a nadie y, en cambio, tiene un efecto positivo en el compromiso cívico de las personas.

Pero la ética de la investigación como el estudio de la manipulación emocional es menos clara. Si bien Facebook se basa en su política de privacidad y términos de uso como un modo inestable de obtener el consentimiento informado de los usuarios para la investigación que completan sus científicos de datos, los usuarios aún están desconcertados al saber que el algoritmo de News Feed está haciendo más que tratar de mostrarles el las actualizaciones, las fotos y las noticias más interesantes. Más allá de eso, News Feed se ha convertido en el vehículo mediante el cual Facebook busca influir en las emociones y el comportamiento de los usuarios.

Los beneficios sociales inmediatos de que los investigadores en ciencias sociales comprendan mejor cómo se propagan las emociones a través de una red social son menos obvios que los beneficios de lograr que más usuarios jóvenes voten. Pero cuando se trata de principios, ¿puede realmente un estudio ser más ético que el otro? Ambos están diseñados para afectar el comportamiento y, al hacerlo, cuantifican la capacidad de Facebook para afectar el comportamiento. Por el contrario, ¿debería medirse la ética de un experimento por su potencial para dañar a los usuarios? Si no afecta negativamente a los usuarios, incluso en ausencia de un efecto positivo en ellos, la sociedad de la que forman parte, ¿está bien?

Como informó Tech Cheat Sheet recientemente, Facebook anunció que estaba implementando nuevas pautas y políticas que rigen la investigación que los científicos de datos de la compañía realizan sobre sus usuarios. Pero la falta de transparencia de la red social sobre exactamente qué requerían las nuevas pautas y qué procesos de revisión se someterán a los nuevos experimentos, no fue suficiente para renovar la confianza de los usuarios o darles alguna seguridad de que Facebook había mejorado la forma en que sus métodos de investigación se comparan con los criterio ético de las regulaciones que debe seguir la investigación académica o financiada con fondos federales.

Pero debido a que Facebook es una empresa privada, técnicamente solo está ejecutando pruebas A / B en sus usuarios sin su conocimiento y sin la supervisión de un organismo regulador externo. Sin embargo, el problema sigue siendo que la mayoría de las empresas de tecnología no pretenden ejecutar pruebas comerciales A / B como investigación psicológica o sociológica, sino que optan por mantener la privacidad de sus pruebas.

Facebook, por otro lado, intenta combinar lo mejor de ambos mundos, buscando la credibilidad pública de la investigación académica con la libertad no regulada para diseñar experimentos como pruebas A / B privadas. ¿Sería mejor que Facebook realizara experimentos con sus usuarios en silencio, renunciando a la publicación de su investigación en ciencias sociales y dejando a los usuarios en la oscuridad sobre si sus News Feeds están siendo manipulados de maneras que van más allá de los cambios habituales en el algoritmo? Eso sería difícil de vender no solo para los usuarios, sino también para los investigadores que ven los posibles efectos positivos que puede tener la investigación de Facebook.

La concesión de Facebook a los críticos, ya que reduce drásticamente el alcance del programa de megáfono de votantes, podría considerarse no solo como una pérdida para las ciencias sociales, sino como un paso en la dirección equivocada. Facebook tendría una mejor recepción por parte del público y de la prensa si hiciera más transparentes sus procesos de investigación, divulgando los estudios antes y teniendo más en cuenta la influencia que los experimentos tienen en la experiencia de los usuarios con la red social.

En cambio, la red social mantiene a todos en la oscuridad sobre los datos que recopila y analiza: 'el estudio de campo más grande en la historia del mundo', como lo caracterizó el científico de datos de Facebook y autor principal del estudio de contagio emocional, Adam Kramer. en un Entrevista 2012 en el sitio web de Facebook. Pero si bien Facebook posee uno de los conjuntos de datos sociales y de comportamiento más grandes jamás reunidos, todos los hallazgos de su equipo de ciencia de datos se limitan a la actividad que ocurre en Facebook, y las motivaciones de la empresa también limitan la utilidad de su investigación.

Aparentemente, los objetivos del equipo de ciencia de datos son descubrir cómo brindar un mejor servicio a los miembros de la red social, y tenemos que cuestionarnos qué es lo que realmente contribuye Facebook cuando ocasionalmente publica su investigación en beneficio de los científicos sociales.

En lugar de asumir cínicamente que los experimentos de investigación de Facebook están diseñados para la manipulación de los usuarios o ingenuamente que sus experimentos de algoritmos están destinados a hacer del mundo un lugar mejor, el público y la prensa deben ser más inteligentemente críticos con los estudios que realiza Facebook. ¿Por qué Facebook los está llevando a cabo? ¿Qué resultados se pueden generalizar? ¿Cuáles se limitan al propio entorno de ingeniería de Facebook y qué conocimientos aporta la empresa a nuestra comprensión más amplia de la psicología y las ciencias sociales?

Nada de eso puede suceder si Facebook retira su investigación de la vista del público por temor a otro desastre de relaciones públicas, o si la empresa continúa manteniendo su investigación comercial al margen de la ética de la investigación académica.

Más de Tech Cheat Sheet:

  • ¿Están mejorando éticamente los experimentos no anunciados de Facebook?
  • ¿Tiene Facebook demasiado control sobre las noticias que leemos?
  • La lucha de Facebook por la captura de datos masivos refleja las preocupaciones de la industria tecnológica