Facebook contras las noticias falsas: grupos sin administrador tienen las horas contadas
Facebook archivará los grupos que lleven tiempo sin administrador para combatir la desinformación y el odio. Evita que se eliminen tus grupos
Facebook, la red social más masiva del mundo, es también una fuente masiva de desinformación, noticias falsas y difusión de odio. Es por eso que viene tomando acciones para combatir estos flagelos en los grupos de su plataforma.
En esa línea, Facebook informó que eliminó 12 millones de contenidos por discurso del odio en el último año, y ha comenzado a exigir que los grupos tengan un administrador o comenzará a eliminarlos pasado un tiempo.
La plataforma propiedad de Mark Zuckerberg ha endurecido las sanciones que aplica a los miembros de grupos que no respetan sus normas de su comunidad, como ha anunciado Facebook en un comunicado.
Coronavirus: es falso que los niños sean altos agentes de contagio, explicamos por qué
Leer másAsí, los administradores y creadores de grupos sancionados no podrán crear nuevos grupos durante un tiempo determinado.
Además, quienes vulneren las normas del grupo necesitarán tener la aprobación del moderador para que sus publicaciones sean visibles en los siguientes 30 días.
Para asegurar esta norma, Facebook comenzará a exigir que los grupos tengan un administrador en situaciones en las que estos abandonan el grupo, y enviará sugerencias a usuarios. Después de un tiempo no determinado, si los grupos siguen sin administrador quedarán archivados.
Video: Javier Kraviez explica si Facebook y Google son amigos o enemigos del periodismo:
Facebook eliminó durante el último año 1,5 millones de contenidos en los grupos de su red social por actividades de odio y 12 millones por discurso del odio, y la compañía eliminó un millón de grupos por este motivo, según datos de la red social.
Facebook ha anunciado otras medidas contra los grupos que promueven la violencia y los ha excluido de las recomendaciones, restringido en búsquedas y en el futuro reducirá su visibilidad en el 'feed' de noticias.
Twitter alertará de contenido engañoso o falso sobre el coronavirus y Covid-19
Leer másEstos grupos se eliminarán de forma automática cuando comiencen a hablar de llegar a la violencia de forma real, incluso si hacen uso de símbolos y términos velados. Esta política se usó para eliminar 709 grupos relacionados con el movimiento extremista de ultraderecha estadounidense QAnon.
Además, Facebook dejará de recomendar grupos con temática sobre salud de las recomendaciones para potenciar las fuentes fiables, y ha comenzado a utilizar un nuevo enfoque para combatir la desinformación y las noticias falsas en los grupos.
De esta manera, Facebook eliminará grupos en los que los administradores aprueben de forma repetida contenidos que violen las normas de la plataforma, reducirá la distribución de todos contenidos de los grupos en los que se comparta desinformación y comenzará a mostrar una etiqueta en los grupos cuando el contenido haya sido desmentido por verificadores independientes.