viernes, abril 19, 2024
Iniciociencia y tecnologiaFacebook publica el manual...

Facebook publica el manual interno que define cómo vigila los posteos en su red social


La compañía publicó el manual interno para determinar si una publicación es válida o debe ser eliminada Fuente: Archivo

Facebook divulgó hoy
un libro de reglas para los tipos de publicaciones que permite en su red social, en que dio más detalles que nunca antes sobre lo que está permitido en temas que van desde el uso de drogas y el trabajo sexual al hostigamiento, el discurso de odio y la incitación a la violencia.

Facebook durante años ha tenido «estándares comunitarios» sobre lo que la gente puede publicar. Pero sólo estaba disponible públicamente una versión relativamente breve y general, mientras que existía un documento interno mucho más detallado para decidir cuándo deberían eliminarse las publicaciones o las cuentas individuales.

Ahora, la compañía está poniendo a disposición del público el documento más largo en su sitio web para despejar la confusión y ser más abierto acerca de sus operaciones,
dijo Monika Bickert, vicepresidente de política de productos y antiterrorismo de Facebook.

«Cuando vienes a


Facebook
, deberías entender dónde trazamos estas líneas y qué está bien y qué no está bien», comentó Bickert a periodistas en una sesión informativa en la sede de Facebook.

La red social más grande del mundo ha enfrentado duras críticas de gobiernos y grupos de derechos en muchos países por no hacer lo suficiente para evitar el discurso de odio y evitar que el servicio sea utilizado para promover el terrorismo, provocar violencia sectaria y transmitir actos como asesinatos y suicidios.

Al mismo tiempo, la compañía también ha sido acusada de cumplir con el mandato de regímenes represivos al eliminar agresivamente contenidos contrarios a ciertos gobiernos y por entregar muy poca información respecto a por qué elimina ciertas publicaciones y cuentas.

Las nuevas políticas permitirán por primera vez que las personas apelen a decisiones de eliminar un contenido individual. Anteriormente, sólo se podía apelar la eliminación de cuentas, grupos y páginas. Facebook también está comenzando a proporcionar la razón específica por la cual se está bajando contenido para una variedad más amplia de situaciones.

Las reglas de moderación de Facebook

No realice amenazas violentas creíbles ni se deleite con la violencia sexual; no promueva el terrorismo ni la caza furtiva de especies amenazadas; no intente comprar marihuana, vender armas de fuego o publicar los precios de venta de medicamentos con receta; no publique instrucciones para lesionarse; no muestre a menores en un contexto sexual ni cometa múltiples homicidios en diferentes momentos o lugares.

Las pautas actualizadas reflejan los criterios que emplean sus 7600 moderadores para revisar publicaciones cuestionables y decidir si son eliminadas y, en ocasiones, alertar a las autoridades.


Hasta ahora, sólo en Facebook sabían por qué aprobaban una publicación o no; con la publicación del manual, buscan ser más transparentes en su evaluación
Hasta ahora, sólo en Facebook sabían por qué aprobaban una publicación o no; con la publicación del manual, buscan ser más transparentes en su evaluación

Los criterios en sí no cambian, pero los detalles revelan información interesante. Las fotos de senos están permitidas en algunos casos -como en imágenes de lactancia materna o en pinturas- pero no en otros. El documento detalla lo que considera explotación sexual de adultos o menores, pero deja espacio para prohibir otras formas de abuso en caso de que surjan.

Dado que Facebook no permite la presencia de asesinos en serie, las nuevas guías definen el término: cualquier persona que haya cometido dos o más asesinatos en «múltiples incidentes o ubicaciones». Las personas que cometieron un único homicidio no serán excluidas, pues podría haber sido en defensa propia.

El repaso a las pautas da una idea de lo difícil que debe ser la labor de un moderador de Facebook. Estas personas deben leer y observar material cuestionable de todo tipo y tomar decisiones complicadas, como por ejemplo si un video hace apología de los desórdenes alimenticios o simplemente busca ayudar a la gente. O cuando se cruza la línea entre la broma y el acoso, o se pasa de una reflexión teórica a una amenaza directa, y similares.

Los moderadores operan en 40 idiomas distintos. El objetivo de Facebook es responder a los reportes sobre contenidos cuestionables en un plazo 24 horas, aunque dice que no impone cuotas ni límite de tiempo a las revisiones.

La red social ha cometido varios errores sonados en los últimos años. Por ejemplo, grupos de derechos humanos dicen que Facebook ha dado una respuesta inadecuada al discurso de odio y la incitación a la violencia contra las minorías musulmanas en Myanmar.

En 2016, Facebook se retractó luego de eliminar una fotografía icónica de 1972 de The Associated Press en la que aparece una niña corriendo desnuda y gritando tras un ataque con napalm en Vietnam. En un primer momento, la firma insistió en que no podía crear una excepción para una fotografía en concreto de un menor desnudo, pero pronto se retractó apuntando que la imagen tenía una «importancia global».

Agencias Reuters y AP

temas en esta nota

¿Te gustó esta nota?


Populares

Ver más noticias

La Iglesia criticó con dureza al Gobierno por la situación de los jubilados

Con un comunicado de la Conferencia Episcopal Argentina, la Iglesia criticó...

Una empresa busca argentinos para empleo remoto y ofrece 60 mil dólares al año

La búsqueda ya está abierta y está disponible también para argentinos....

Aumentos en la boleta, subsidios y cuotas para pagar los servicios públicos

Los del sector de mayores ingresos pasarán de pagar $40.000 a...

Más de 500 deportistas disfrutarán del Parque Aconquija en el Desafío Cochuna

La competencia Desafío Cochuna se desarrollará el próximo domingo y de...