lunes, abril 22, 2024
Iniciociencia y tecnologiaLos usuarios de Facebook...

Los usuarios de Facebook podrán apelar cuando la red social elimine una publicación


La compañía creó un mecanismo para que los usuarios hagan saber su desacuerdo

Los usuarios de Facebook podrán desde hoy apelar las decisiones con las que la red social decide dar de baja un contenido, como suele suceder cuando una foto muestra desnudez, violencia explícita, explotación sexual infantil u otras características que violan las «Normas Comunitarias» de la empresa.

Además,
la compañía publicó por primera vez las pautas internas que sus empleados usan para aplicar esas normas (las que definen qué se mantiene y qué se elimina), con el objetivo de ayudar a las personas «a entender dónde trazamos la línea en estas cuestiones», afirmó Monika Bickert, vicepresidenta de Facebook para Políticas Globales de Producto.

La iniciativa busca también obtener las opiniones de usuarios y de expertos en distintos campos para «mejorar las pautas y las decisiones que tomamos», señaló la ejecutiva en diálogo con Télam.

El primer paso en este sentido implica la posibilidad para los usuarios de apelar las publicaciones «que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica».

Por ejemplo, «si tu foto, vídeo o publicación ha sido eliminado por violar nuestras Normas Comunitarias, se te dará la opción de solicitar una revisión», detalló la empresa, y aclaró que las apelaciones son revisadas por el equipo de operaciones comunitarias (siempre por una persona) en el plazo de 24 horas».

«Si hemos cometido un error, el contenido será restaurado y notificaremos a la persona que solicitó la apelación», aseguró en un documento al que tuvo acceso esta agencia.

En un futuro cercano,


Facebook
dará también la posibilidad de apelar otros tipos de infracciones, no solo para el contenido que dado de baja sino también para aquel que fue reportado pero no fue removido de la plataforma.

Bikert, ex fiscal, está al frente de una equipo compuesto por alrededor de 60 personas -distribuidas en 11 oficinas alrededor del mundo- con diferentes formaciones, como abogados, especialistas en seguridad infantil o en terrorismo, quienes trabajan escribiendo las políticas y supervisando su implementación.

Esta tarea, en tanto, la realiza el equipo de Operación Comunitaria, compuesto por alrededor de 7600 personas, los llamados revisores de contenidos, que «están distribuidos alrededor del mundo y revisando contenidos que han sido reportados, ya sea por usuarios que utilizan las herramientas para reportar u otros que nuestra tecnología marcó por ser contenidos que pueden violar nuestras políticas», explicó a Télam.

Este equipo trabaja en 40 idiomas diferentes durante las 24 horas todos los días, y en el último año la cantidad de miembros aumentó en un 40 por ciento.

«En algunos casos, nos equivocamos porque nuestras políticas no son lo suficientemente claras para nuestros revisores», señalaron desde la compañía, y agregaron: «En la mayoría de las ocasiones, sin embargo, cometemos errores porque los procesos involucran a personas, y las personas somos falibles».

Pero la empresa también tiene sistemas de revisión automatizada (basados en inteligencia artificial), que actúan «al momento de subir un contenido y se hace en casos como pornografía infantil o videos de decapitaciones, que no están permitidos en Facebook de ninguna manera».

El trabajo de estos equipos se guía por una serie de lineamientos internos que definen qué puede publicarse y qué no sobre un amplio abanico de tópicos sensibles como discurso de odio, violencia gráfica, desnudez, actividad sexual, spam, explotación sexual infantil, promoción del crimen, suicidio, bullying, acoso, terrorismo o amenazas, entre otros.

Estos son los
lineamientos que a partir de hoy están al alcance de cualquier persona que los quieran leer.

«Una de las preguntas que nos hacen con más frecuencia es cómo decidimos el contenido que está permitido en Facebook. Estas decisiones están entre las más importantes que tomamos porque son fundamentales para garantizar que Facebook sea a la vez un lugar seguro y un lugar para compartir con libertad diferentes puntos de vista», explicó Bikert.

Télam

temas en esta nota

¿Te gustó esta nota?


Populares

Ver más noticias

Las universidades se movilizan: qué solicitan y a qué hora empieza

Anahí Rodríguez, secretaria adjunta de ADIUNT, contó sobre la Marcha Federal...

La receta electrónica será obligatoria desde julio en todo el país

Así lo establece la nueva reglamentación en el decreto 345/2024. Infobae...

Jaldo: «Hay que cuidar la educación pública y es lo que venimos haciendo»

El gobernador, Osvaldo Jaldo, opinó sobre la movilización de mañana en...

La Brigada de Vacunación de Salud inmunizó a personal de Gendarmería

Se realizó en el marco de la Semana de Vacunación en...