Seis revelaciones que dejaron los 'Facebook Papers', según The Verge
A continuación un resumen de los archivos que, hasta ahora, han destacado más en los 'Papeles de Facebook'.
Durante meses, Facebook ha sido sacudido por una constante filtración de documentos de la denunciante Frances Haugen, comenzando en The Wall Street Journal pero extendiéndose a funcionarios del gobierno y casi cualquier medio con interés en la compañía. Ahora, esos documentos se están volviendo mucho más públicos, lo que da la mirada más amplia a las operaciones de Facebook que cualquier persona que no esté directamente involucrada con la empresa haya tenido.
Facebook dispara sus beneficios y gana usuarios pese a todas las polémicas
Leer másLos documentos provienen de divulgaciones hechas a la SEC y proporcionadas al Congreso por Haugen en forma redactada. The Verge y un consorcio de otras organizaciones de noticias han obtenido versiones redactadas de los documentos, que han llamado The Facebook Papers. A continuación un resumen de los archivos que, hasta ahora, les han destacado más, sin embargo, el medio explica que "esta no es una lista completa de todo lo que hay en los documentos, y debe esperar que salgan más".
1. FACEBOOK FUE TOMADO POR SORPRESA POR INFORMACIÓN ERRÓNEA SOBRE VACUNAS EN LOS COMENTARIOS
Facebook ha recibido muchas críticas por su manejo de la información errónea de COVID, incluso del presidente Biden, quien acusó a la plataforma de "matar gente" al dejar que el sentimiento anti-vacunas se volviera loco, pero las filtraciones muestran cuán caótico fue el esfuerzo dentro de la empresa. Un documento con fecha de marzo de 2021 muestra a un empleado dando la alarma sobre lo poco preparada que estaba la plataforma. "La vacilación sobre las vacunas en los comentarios es desenfrenada", dice el memo. “Nuestra capacidad para detectar comentarios que dudan de las vacunas es mala en inglés y básicamente no existe en otros idiomas. Necesitamos pautas de política específicamente dirigidas a la vacilación en las vacunas en los comentarios ".
El documento deja en claro que Facebook ya tenía un proyecto de “defensa de bloqueo de COVID-19” dedicado a la dinámica de la plataforma creada por la pandemia, incluido un flujo de trabajo dedicado por completo a la vacilación de vacunas. Ese equipo también había creado importantes sistemas de señalización automatizados para la desinformación, pero según los archivos, esos simplemente no se estaban utilizando para rebajar los comentarios contra las vacunas. A partir del memorando de marzo, no había planes para desarrollar una infraestructura de moderación como etiquetado, pautas y sistemas de clasificación para identificar declaraciones anti-vacunas en los comentarios.
Zuckerberg se queja del intento de crear una imagen falsa de Facebook
Leer másLa falta de moderación significativa de los comentarios se notó fuera de la empresa. Un estudio de First Draft News en mayo analizó los comentarios de un puñado de importantes medios de comunicación con más de un millón de seguidores y encontró que uno de cada cinco comentarios sobre historias relacionadas con vacunas contenía algún tipo de información errónea contra las vacunas.
Los documentos muestran que Facebook estaba al tanto del problema, y es posible que First Draft incluso haya subestimado el problema. Un comentario en la publicación dice: "Para las publicaciones en inglés sobre vacunas, la prevalencia de vacilación a las vacunas entre los comentarios es del 50 por ciento".
Facebook ha tomado algunas medidas recientemente para abordar la información errónea en los comentarios, incluidas las nuevas reglas de clasificación de la semana pasada. Pero estos documentos muestran que esos cambios se produjeron más de seis meses después de que se disparara la alarma internamente y después de que Facebook expresara públicamente su ansiedad por la inminente filtración.
2. EL EQUIPO DE INTEGRIDAD CÍVICA A MENUDO FUE BLOQUEADO POR ZUCKERBERG
Uno de los incidentes más alarmantes descubiertos por los periódicos fue que Mark Zuckerberg intervino personalmente para garantizar que Facebook cumpliera con una ley represiva instituida en Vietnam, accediendo a moderarse de manera más agresiva contra el contenido "antiestatal" en la plataforma. La anécdota encabeza el informe de The Washington Post sobre los periódicos y juega con una dinámica mucho más preocupante descrita por Haugen ante el Congreso. El equipo de integridad de Facebook tenía muchas ideas sobre cómo hacer que Facebook fuera menos dañino, pero por lo general fueron rechazadas, a veces por el propio Zuckerberg.
3. FACEBOOK UTILIZÓ UN MOVIMIENTO ALEMÁN CONTRA LAS VACUNAS COMO CASO DE PRUEBA PARA UNA MODERACIÓN MÁS AGRESIVA
Los "papeles de Facebook" redoblan la presión sobre Zuckerberg
Leer másOtro documento detalla el llamado "experimento Querdenken" de Facebook, en el que los moderadores de la compañía probaron un enfoque de moderación más agresivo en un movimiento de conspiración alemán. El equipo de contenido peligroso de Facebook ya estaba desarrollando una nueva clasificación, una “comunidad de temas nocivos”, y se eligió el creciente Querdenken como un experimento sobre cómo funcionaría la clasificación en la práctica.
Querdenken se ha convertido en uno de los principales grupos anti-bloqueo y anti-vacunación en Alemania, con similitudes con grupos más extremos como QAnon . Como lo enmarcaba la propuesta de Facebook, el movimiento Querdenken tenía potencial para la violencia, pero aún no estaba vinculado a una actividad lo suficientemente extrema como para justificar la prohibición total de los seguidores de la plataforma.
4. LA RESPUESTA DE FACEBOOK DEL 6 DE ENERO ESTUVO MARCADA POR FALLOS Y RETRASOS
Facebook discutió el desarrollo de “medidas extremas de ruptura de cristales” para limitar la desinformación, los llamados a la violencia y otro material que podría interrumpir las elecciones presidenciales de 2020. Pero cuando el ex presidente Donald Trump y sus partidarios intentaron evitar que el sucesor Joe Biden fuera declarado presidente el 6 de enero de 2021, los empleados de Facebook se quejaron de que estas medidas se implementaron demasiado tarde o se vieron obstaculizadas por problemas técnicos y burocráticos.
Los informes de Politico y The New York Times describen la lucha de Facebook para manejar a los usuarios que deslegitimaban las elecciones. Internamente, los críticos dijeron que Facebook no tenía un plan de juego suficiente para las “narrativas no violatorias dañinas” que marcaban la línea entre la desinformación y el contenido que Facebook quiere preservar como libertad de expresión. Y algunos planes, como un cambio que hubiera evitado que los Grupos cambiaran sus nombres a términos como "Stop the Steal", aparentemente se retrasaron por problemas técnicos.
5. LA GENTE PIENSA QUE EL CONTENIDO POLÍTICO EN FACEBOOK ES DE BAJA CALIDAD, POCO CONFIABLE Y QUE GENERA DIVISIONES
Youtube, Facebook e Instagram suspenden a Bolsonaro por desinformación
Leer másEl documento dice que el algoritmo de clasificación de Facebook recomendó contenido cívico que los propios usuarios no informaron encontrar valioso, algo que las filtraciones anteriores han indicado era un problema con las interacciones sociales significativas (MSI) y otras métricas basadas en el compromiso. "Nuestros objetivos de clasificación actuales no optimizan los resultados de integridad, lo que puede tener consecuencias peligrosas", dice; por ejemplo, la optimización de MSI estaba "contribuyendo enormemente a la información errónea de Civic", y Facebook estimó que eliminarlo de las publicaciones de Civic lo reduciría en 30 al 50 por ciento.
Facebook intentó mejorar la salud cívica preguntando explícitamente a los usuarios qué pensaban que constituía un buen contenido cívico. Esto a veces reveló problemas aún mayores, ya que Facebook aparentemente encontró que entre el 20 y el 30 por ciento de los encuestados “pueden decir que el odio cívico conocido es 'bueno para la comunidad'” en las encuestas. Facebook se decidió por una estrategia para "priorizar la reducción del contenido que viola las políticas, como el odio cívico o la información errónea cívica, incluso si el usuario individual lo encuentra valioso" y tenía como objetivo reducir la prevalencia del discurso de odio cívico, la desinformación y el contenido inflamatorio al al menos el 10 por ciento.
La empresa realizó experimentos de reequilibrio en febrero de 2020 aumentando ligeramente la cantidad de contenido "cívico" de News Feed que veía un conjunto aleatorio de usuarios, y luego optimizando ese contenido a través de diferentes métricas (incluido MSI y si las personas pensaban que el contenido "valía la pena su tiempo"). . También realizó una encuesta para recopilar cómo se sentían los usuarios sobre el contenido cívico de News Feed. La compañía tenía como objetivo tener un nuevo sistema de optimización elegido para marzo de 2020, aunque no está claro cómo la pandemia de coronavirus pudo haber cambiado esos planes.
6. POR QUÉ LOS ME GUSTA NUNCA SE OCULTARON EN FACEBOOK E INSTAGRAM
Los usuarios con varias cuentas son un problema "muy prevalente" en Facebook
Leer másUn plan muy publicitado de principios del año pasado para ocultar los me gusta en Instagram nunca sucedió porque probar el cambio afectó los ingresos por publicidad y llevó a las personas a usar menos la aplicación. Una prueba silenciosa de la experiencia en la aplicación de Facebook también fue eliminada después de que el liderazgo le dijo a Zuckerberg que no era una "barrera principal para compartir ni una preocupación principal para las personas".
Una larga presentación interna a Zuckerberg sobre el plan, denominado Proyecto Daisy, muestra que había preocupaciones entre los líderes sobre cómo se habría percibido la aplicación de Facebook si Instagram ocultaba los me gusta y Facebook no, que es algo que los empleados que participaron en el proyecto le han dicho a The Verge . Los empleados que trabajaban en Instagram querían facturarlo como una forma de despresurizar la aplicación para los jóvenes, pero el equipo que trabaja en la aplicación de Facebook no estaba de acuerdo con la idea. Si Instagram siguió ocultando me gusta, la presentación detalla cómo el liderazgo de Facebook quería "minimizar el retroceso a la aplicación de Facebook" para no ocultarlos y aún así "asegurar escaleras de crédito hasta la empresa de Facebook".
En lugar de ocultar los Me gusta para todos los usuarios de forma predeterminada, como se planeó originalmente, Instagram adoptó anteriormente una medida a medias al permitir que las personas opten por ocultar sus Me gusta.