¿Dónde empieza y dónde acaba la libertad de expresión en las redes sociales?

Lo que ha sucedido con el mensaje del presidente estadounidense es un procedimiento muy habitual en Twitter
Lo que ha sucedido con el mensaje del presidente estadounidense es un procedimiento muy habitual en Twitter.
20BITS
Lo que ha sucedido con el mensaje del presidente estadounidense es un procedimiento muy habitual en Twitter

La guerra del presidente de Estados Unidos, Donald Trump, contra las redes sociales, y más especialmente contra Twitter, puede tener consecuencias inimaginables. Al mandatario le ha costado ‘solo’ 48 horas tomar represalias contra la plataforma después de que esta aplicase su mecanismo de alertas contra uno de sus tweets.

Trump ha dejado claro que ‘ir en su contra’ se paga, firmando este jueves un decreto que insta a las autoridades a reinterpretar la archiconocida Sección 230. Con la firma de esta orden el presidente estadounidense pretende acabar con la inmunidad legal de la que gozan las plataformas tecnológicas por los contenidos que los usuarios publicaban en ellas.

¿Puede un Gobierno ‘cerrar’ las redes sociales? ¿Hasta dónde aceptamos que se regule nuestra libertad de expresión? ¿Entendemos que detrás de las plataformas sociales hay una compañía privada con sus propias normas? ¿Las acatamos? ¿Las criticamos como censura?

Estas preguntas son algunas de las que podría englobar un tema de mucha controversia y de difícil manejo: la lucha diaria para proteger la libertad de expresión sin ser, a la vez, destruidos por ella.

Mecanismos de verificación en Twitter

Lo que ha sucedido con el mensaje del presidente estadounidense es un procedimiento muy habitual en Twitter: se trata de un mecanismo contra la desinformación que está contemplado en las políticas y reglas de la plataforma.

“A veces incluimos un aviso en una cuenta o en un Tweet para brindarte más contexto sobre las medidas que pueden tomar nuestros sistemas o equipos. En algunos casos, estas medidas responden a comportamientos que incumplen las Reglas de Twitter. En otros, pueden responder a un requerimiento válido y correctamente definido proveniente de una entidad autorizada en un país determinado”, dicta Twitter.

Asimismo, la red social afirma categóricamente que “está prohibido compartir, con la intención de engañar, contenido multimedia falso o alterado que pueda dar lugar a daños graves” y que es posible que se etiqueten los tweets que incluyan “contenido multimedia falso y alterado” para ayudar a los usuarios “a comprender su autenticidad y para ofrecer más contexto”.

En el caso de Trump, al hacer clic en la alerta, la red social redirige a otra página dentro de la plataforma en la cual aparece en letras destacadas en negrita: “Trump asegura sin pruebas que el voto por correo derivará en fraude electoral” y se cita a medios como CNN y The Washington Post.

Twitter, como empresa privada que es, tiene todo el derecho a restringir el contenido en su plataforma. Esa restricción no es censura en tanto que responde a una serie de términos de uso y servicio -limitados por leyes- que aceptas cuando te unes a la red social. Sin embargo, perder la protección de la Sección 230 haría a la compañía responsable de lo publicado, por lo que previsiblemente borraría mucho más contenido.

¿Qué hacen otras plataformas?

Desde mejorar los algoritmos de control hasta iniciar colaboraciones con medios de comunicación y verificadores de datos, Facebook, Google, Instagram o incluso WhatsApp han trabajado en los últimos años por implementar herramientas y soluciones que ayuden a frenar la difusión de fake news

En los últimos meses, la crisis sanitaria ha acelerado aún más esta política de rechazo absoluto a los bulos y desde este espacio ya os hemos ido contando algunas de esas medidas. Vamos a hacer un repaso.

“Somos una compañía tecnológica, no una compañía de medios”, decía Mark Zuckerberg en 2016 cuando se le preguntaba sobre si forma parte de la responsabilidad de las plataformas de internet comprobar la veracidad de los contenidos. El dueño de Facebook mantiene todavía esta postura, algo que hemos comprobado con su reciente aparición en Fox News, donde ha afirmado al hilo de la polémica de Trump que ellos no deberían ser “árbitro de la verdad de todo lo que la gente dice en internet”.

Aunque Zuckerberg se ha puesto muy serio en los últimos tiempos para controlar la desinformación y los bulos en torno a la crisis sanitaria, lo cierto es que las noticias falsas no violan los estándares de su comunidad, por lo que en sí no pueden hacer nada contra ellas.

Sus normas dicen: “Evitar la difusión de noticias falsas en Facebook es una responsabilidad que nos tomamos muy en serio. También reconocemos que este es un asunto complicado y delicado. Queremos ayudar a las personas a mantenerse informadas sin reprimir el discurso público constructivo. También es cierto que existe una delgada línea divisoria entre las noticias falsas y el humor o las opiniones. Por estos motivos, no eliminamos las noticias falsas de Facebook, sino que reducimos notablemente su distribución, mostrándolas con menos frecuencia en la sección de noticias”.

Algunas de las ‘represalias’ que se toman contra aquellos que difunden noticias falsas son “restringir los incentivos económicos” de las personas, las páginas y los dominios que las propagan, reducir la distribución del contenido “calificado como falso” por parte de verificadores de información independientes o “colaborar con personal académico y diversas organizaciones para que nos ayuden a afrontar este desafío”.

Es decir, una información falsa no es intervenida en Facebook, simplemente ‘penalizada’ con monetización limitada o con mostrarse más abajo en el feed de noticias. Para que la compañía realmente intervenga una publicación debe infringir sus políticas en otras categorías como el spam, los discursos de odio o las cuentas falsas, lo que sí llevaría a la eliminación de la misma.

¿Y qué dice Google? Ellos tampoco se mojan: “Estos términos solo limitan nuestras responsabilidades en la medida en que lo permita la legislación aplicable. En concreto, estos términos no limitan la responsabilidad de Google en caso de muerte o lesiones personales, fraude, información falsa y fraudulenta, negligencia grave o conducta dolosa”.

Ese es el único párrafo en el que se hace mención a informaciones falsas. Más abajo, aseguran que se reservan “el derecho de retirar parte o la totalidad” de un contenido si incumple sus términos y condiciones, infringe la legislación o “podría dañar” a sus usuarios. Pero no especifican aquí nada de fake news.

“Brindar información confiable en internet es enormemente complejo y una responsabilidad importante. Nos esforzamos por hacerlo mejor que nadie, pero aún nos queda trabajo por hacer. Nosotros queremos enfrentar este desafío mejorando nuestros productos, contrarrestando la acción de los actores maliciosos que buscan difundir la desinformación y dando a los usuarios más contexto sobre la información que ven”, decía a Xataka Kristie Canegallo, vicepresidenta de Trust and Safety de Google.

Así, con este tipo de medidas lo que hace Google es ‘posicionar mejor’ los contenidos que considera fiables, los que provienen de páginas de credibilidad contrastada, como pueden ser medios de comunicación o webs oficiales.

Mostrar comentarios

Códigos Descuento