Mark Zuckerberg, Facebook, ReutersMark Zuckerberg, Facebook, REUTERS.

Uno de los periódicos más reconocidos de Estados Unidos como The New York Post publicó un correo electrónico en el que Vadym Pozharskyi, número tres de la empresa Burisma, habría enviado en abril de 2015 a Hunter Biden, hijo del actual candidato a presidente de los Estados Unidos.

 

En el mensaje decía: “Querido Hunter, gracias por invitarme a Washington DC y darme la oportunidad de conocer a tu padre y pasar algún tiempo con él. Es realmente un honor y un placer”. La carta, básicamente, contradice al actual candidato demócrata a la presidencia, Joe Biden, quien ha negado tal encuentro como también el papel de su hijo en la gestión del encuentro. Con la viralización del mensaje, las plataformas más importantes comenzaron a aplicar sus normas de moderación de contenido contra ella.

 

Entre los dichos del consejo directivo de las plataformas está el que ellos son soportes abiertos al contenido ajeno, por lo cual no deben ser reguladas como los medios y, sobre todo, no pueden regular a los usuarios sin violar el derecho fundamental a la libertad de expresión.

 

Noticias relacionadas

Estos dichos de la compañía las liberaría de responsabilidad sobre lo que se publica en ellas, sobre todo del discurso de odio por el que son particularmente criticadas. Entonces nace la pregunta, ¿cómo es posible que la publicación del Post fuera identificada como un contenido potencialmente dañino, y no se permitiera que los usuarios la compartieran?.

 

Mientras nace un debate público que se desorienta en conversaciones sobre si plataformas como las de Mark Zuckerberg deberían hacer más o menos por moderar o censurar el discurso discriminatorio, de odio o de violencia, nadie pregunta “cómo aplica Facebook sus reglas y quién se beneficia de ello”.

 

Marantz citó a Drew Pusateri, vocera de Facebook, al respecto: “Hemos invertido miles de millones de dólares para mantener el odio fuera de nuestra plataforma. Un informe reciente de la Comisión Europea estableció que Facebook evaluó el 95,7% de las denuncias de discurso de odio en menos de 24 horas, más rápido que YouTube y Twitter".

 

Sophie Zhang, ex analista de datos que dejó la compañía en septiembre dijo: “Es un secreto a voces que las decisiones de corto plazo de Facebook están impulsadas en su mayoría por las relaciones públicas y la potencial atención negativa".