4/1/19

La transformación de Facebook en un instrumento de censura política al crear una lista de lineamientos sobre lo que sus 2000 millones de usuarios pueden decir. A veces elimina partidos políticos, como Amanecer Dorado en Grecia, o movimientos religiosos tradicionales en Asia y Oriente Medio. Esto significa que Facebook impide la participación de un sector de la población en los debates nacionales que suceden en su plataforma. Y sus decisiones a menudo son modificadas a favor de los gobiernos porque pueden ponerle multas... Al depender de trabajadores subcontratados para realizar la mayor parte de la moderación, Facebook puede mantener costos bajos incluso mientras fija reglas para más de 2000 millones de usuarios...

"El año 2018 ha sido testigo de una vasta intensificación de la censura del internet por parte de Google, Facebook y Twitter, transformándolos de ser herramientas para el intercambio y información por todo el mundo en una red masiva de censura para vigilar lo que los usuarios digan, hagan o piensen.

En agosto de 2017, el World Socialist Web Site publicó una carta abierta a Google acusando a la compañía de actuar en colusión con el Gobierno estadounidense en moldear el discurso público manipulando los resultados de búsquedas. La carta abierta advirtió que las acciones de Google constituían un peligroso precedente de subversión contra las protecciones constitucionales de la libre expresión y exigía que la empresa acabara lo que el WSWS describió como “listas negras” de sitios web izquierdistas.

Dieciséis meses después, el argumento central de la carta abierta —de que Google y sus socios están llevando a cabo censura política— es innegable. El régimen que Google fabricó por medio de su motor de búsqueda se ha expandido a todas las principales plataformas de redes sociales con sede en EUA, incluyendo Facebook, Twitter y YouTube.

En un artículo de primera plana publicado el viernes e intitulado “Cómo Facebook controla lo que el mundo dice”, el New York Times escribió que las acciones de Facebook “convierten a la empresa en un árbitro del discurso global más poderoso de lo que ha reconocido o asimilado públicamente la empresa”.

Facebook “evolucionó sigilosamente, con una velocidad que incluso puso incómodos a sus propios empleados, en lo que se puede interpretar como uno de los mayores reguladores políticos del mundo”, señala el artículo. “De forma cada vez mayor”, concluye el Times, “las decisiones sobre cuáles publicaciones deberían bloquearse constituyen la regulación del discurso público —y no es solo algo al margen—”.

La transformación de Facebook en un instrumento de censura política fue puesta en evidencia en la declaración de fin de año del CEO de Facebook, Mark Zuckerberg, publicada pocas horas antes de la aparición del reporte del Times.

“Somos una compañía muy diferente a la que éramos en 2016 o incluso hace un año”, escribe Zuckerberg. “Hemos alterado fundamentalmente nuestro ADN para enfocarnos más en prevenir que se haga daño en todos nuestros servicios y hemos cambiado sistemáticamente gran parte de nuestra empresa a labores de prevención de daños. Ahora tenemos a más de 30.000 personas trabajando en seguridad e invertimos miles de millones de dólares en seguridad cada año”.

La realidad detrás de los empalagosos eufemismos del milmillonario CEO sobre “prevención de daños” es mucho más perniciosa. Los 30.000 empleados a los que se refiere —la mayoría de los trabajadores de Facebook— no se dedican a “prevenir daños” sino a “prevenir discursos”. Leen las comunicaciones de usuarios de Facebook, determinan cuáles puntos de vista políticos son aceptables y cuáles no, y borran, prohíben o bloquean a usuarios y sus publicaciones.

Zuckerberg presume que Facebook ha estado “eliminando millones de cuentas falsas cada día” y trabajando hacia “identificar información falsa y reducir su distribución”. Facebook “ha construido sistemas de inteligencia artificial para identificar y eliminar automáticamente el contenido relacionado a terrorismo, discursos de odio y más antes de que nadie los vea”.

En otras palabras, cada publicación, comentario y mensaje es leído y analizado por humanos, máquinas o ambos para determinar si infringe los estándares arbitrarios, indefinidos, amorfos y opacos (“y más”) de la compañía.

Si Facebook decide que tus publicaciones son “sensacionalistas”, como las críticas contra la masacre israelí de civiles palestinos, tu publicación podría ser enterrada secretamente. Si protestas la persecución de la minoría tamil de Sri Lanka, puede que tus declaraciones sean borradas. Y, como Facebook ha dejado claro, en ciertos casos no especificados, transfiere información a la policía y a las agencias de inteligencia con base en las declaraciones políticas de los usuarios.

Zuckerberg continúa: “Hemos mejorado la Sección de Noticias para promover noticias de fuentes confiables. Estamos desarrollando sistemas para reducir automáticamente la difusión de contenido dudoso, incluyendo sensacionalismo y desinformación”.

En palabras claras, si Facebook determinara que lo que dices es “contenido dudoso” (signifique esto lo que signifique), no podrás decirlo y no podrás apelar a nadie.

Se promoverán las fuentes “confiables” —y Zuckerberg ha mencionado previamente al New York Times y el Washington Post como ejemplos—, mientras que aquellas que pongan en cuestión a estos medios cuasioficiales del Estado de EUA serán silenciadas.

El artículo del Times ya citado concluye: “El objetivo de la compañía es ambicioso: someter preguntas que dependan mucho del contexto y que incluso los expertos legales tienen problemas en resolver—cuando una idea es de odio, cuando un rumor es peligroso—a normas universales”.

Indica que la empresa tiene reglas internas que rigen los términos permitidos para los usuarios. “Palabras como ‘hermano’ o ‘camarada’ probablemente cruzan esa línea”, escribe el Times .

“Los moderados dicen que están bajo presión para revisar aproximadamente mil piezas de contenido por día. Tienen entre ocho a 10 segundos por publicación”, añade el diario.

A pesar del carácter explosivo de las revelaciones del artículo, el reporte en sí es una exposición controlada de información que busca hacer que Facebook sistematice su régimen de censura en coordinación con el Gobierno estadounidense. En vez del laberinto bizantino de hojas de Excel y archivos de PowerPoint que describe el artículo, el Times, uno de los principales impulsores de la censura en línea, está exigiendo una clara guía de normas gubernamentales sobre cuáles tipos de discurso debe remover Facebook.

Sin embargo, según la Primera Enmienda de la Constitución de EUA, así como varios acuerdos internacionales de derechos humanos, el Gobierno no tiene ningún derecho de definir lo que alguien puede o no puede decir. “El Congreso no podrá hacer ninguna”, declara la Primera Enmienda, “limitando la libertad de expresión, ni de prensa”.

La campaña de censura de Facebook ha sido instigada directamente por el Estado de EUA. En más de una media docena de audiencias este año ante las comisiones del Senado y la Cámara de Representantes, varios líderes congresistas y oficiales de las agencias de inteligencia han exigido que las empresas creen exactamente el tipo de régimen orwelliano de censura ahora descrito.

Todo esto es una gran conspiración inconstitucional e ilegal para destruir la libertad de expresión.

Las razones detrás de la censura no son difíciles de encontrar.

El 2018 ha sido un año de crecientes luchas sociales, finalizando con un resurgimiento internacional de la clase obrera expresado más claramente en el movimiento de los “chalecos amarillos” en Francia. Con una recesión global en el horizonte, el recrudecimiento de los antagonismos internacionales y de la crisis política en EUA y otros países, el Estado capitalista se enfrenta a lo que sus propios representantes llaman una “crisis de legitimidad”. Por ende, persigue desesperadamente resolver esta crisis previniendo que las masas accedan a puntos de vista izquierdistas y coordinen sus luchas por medio de las redes sociales.

No obstante, así como el año siguiente verá una intensificación aún mayor de la lucha de clases, también evidenciará un crecimiento de la lucha contra la censura en línea."                   (Andre Damon, wsws  , en Jaque al neoliberalismo, 31/12/18)


" The New York Times:  Así es como Facebook controla lo que puedes publicar.

 A veces un emoticono es solo un emoticono. Pero, a veces, puede ser una amenaza.
Y en solo unos segundos, los moderadores de Facebook tienen que reaccionar y tomar una decisión —incluso si el texto que acompaña a la cara amarilla sonriente está en un idioma que no conocen bien—.

Para ayudarles con esas decisiones, Facebook ha creado una lista de lineamientos sobre lo que sus 2000 millones de usuarios pueden decir. Los moderadores trabajan con esas reglas que son actualizadas frecuentemente.

Para Facebook, el objetivo es la claridad. Sin embargo, para los miles de moderadores en todo el mundo, que enfrentan la tarea de navegar este bizantino laberinto de reglas mientras monitorean a diario miles de millones de publicaciones en más de cien idiomas, la claridad es difícil de lograr.
 Facebook intenta que esos lineamientos, y su existencia, se mantengan en secreto. Sin embargo, The New York Times adquirió 1400 páginas de esas reglas, y no solo detectó problemas en la redacción, sino también en la manera en que se realiza el proceso de moderación.

A continuación presentamos cinco puntos clave de nuestra investigación:

 

Facebook experimenta sobre la marcha


Cada dos martes las reglas se discuten durante un desayuno que se celebra en una sala de conferencias en Menlo Park, California —lejos de la aceleración del descontento social que los críticos suelen achacarle a Facebook—.

Aunque la compañía no consulta a grupos externos, las reglas son determinadas en gran medida por jóvenes abogados e ingenieros, la mayoría de los cuales no tienen experiencia en las regiones del mundo sobre las que están tomando decisiones.

Las reglas que ellos crean parecen estar escritas para anglohablantes que a veces dependen del traductor de Google. Eso indica una falta de moderadores con habilidades idiomáticas locales que podrían entender mejor los contextos locales.

Los empleados de Facebook dicen que no han entendido, del todo, qué tipo de publicaciones pueden crear disturbios violentos o políticos. Los reglamentos son deducciones.

 

Las reglas contienen sesgos, omisiones y errores


Algunos de los lineamientos usados por los moderadores son imprecisos, están desactualizados o carecen de matices críticos.
Por ejemplo, una presentación se refiere al criminal de guerra bosnio Ratko Mladic como un fugitivo, a pesar de que fue arrestado en 2011.

Otra parece tener errores sobre la ley india porque aconseja a los moderadores que casi cualquier crítica a la religión debe ser marcada como probablemente ilegal. De hecho, según un académico especializado en temas jurídicos, criticar a la religión solo es ilegal cuando tiene la intención de generar violencia.

En Birmania, un error de papeleo permitió que un prominente grupo extremista, acusado de fomentar el genocidio, permaneciera en la plataforma durante meses.

 

Los moderadores se sienten abrumados


Facebook subcontrata los procesos de moderación con compañías que emplean a miles de trabajadores para hacer cumplir las reglas. En algunas de estas oficinas, los moderadores dicen que se espera que revisen muchas publicaciones en tan solo entre ocho y diez segundos. El trabajo puede ser tan exigente que muchas personas solo duran unos cuantos meses en ese cargo.

Los moderadores dicen que tienen pocos incentivos para contactar a Facebook cuando encuentran fallas en el proceso. Por su parte, Facebook permite en gran medida que las compañías que contratan a los moderadores se supervisen a sí mismas.

 

Facebook se adentra furtivamente en la política de los países


Cada vez, las políticas de Facebook se vuelven más asertivas para prohibir el acceso a grupos y personas, así como a tipos de discurso, que —según los moderadores— podrían conducir a la violencia.

En países donde la línea entre extremismo y política tradicional es poco clara, el poder de la red social para prohibir el acceso a algunos grupos significa que, en esencia, ayuda a definir ganadores y perdedores políticos.

A veces elimina partidos políticos, como Amanecer Dorado en Grecia, así como movimientos religiosos tradicionales en Asia y Oriente Medio. Esto puede significar que Facebook impide la participación de un sector de la población en los debates nacionales que suceden en su plataforma, argumenta un experto.

Algunas intervenciones son más sutiles. Durante las elecciones en Pakistán, la empresa le pidió a los moderadores que aplicaran un escrutinio extra a un partido, pero calificó al otro de “benigno”.
Y sus decisiones a menudo son modificadas a favor de los gobiernos, los cuales pueden multar o regular Facebook.

 

Facebook está tomando un enfoque de fondo


Aunque Facebook intenta limitar el contenido peligroso en su plataforma, continúa trabajando para incrementar sus usuarios en más países. A veces, esa tensión se observa en los lineamientos.

Por ejemplo, los moderadores que revisan publicaciones sobre Pakistán reciben advertencias sobre crear un “incendio de relaciones públicas” al hacer cualquier cosa que podría “tener un impacto negativo en la reputación de Facebook o incluso poner a la compañía en riesgo legal”.

Al depender de trabajadores subcontratados para realizar la mayor parte de la moderación, Facebook puede mantener costos bajos incluso mientras fija reglas para más de 2000 millones de usuarios."              

(The New York Times es:  Así es como Facebook controla lo que puedes publicar, 28/12/18)

No hay comentarios: