¿Quién (o qué) decide lo que se debe censurar en la red?

 ¿Quién (o qué) decide lo que se debe censurar en la red?

Los escándalos en Internet florecieron el año pasado. En 2019 habrá que tomar importantes decisiones para mantener el equilibrio entre la censura y la libertad de expresión.

Leyenda / credito

El 17 de diciembre del año pasado Facebook bloqueó por 24 horas la cuenta de Yair Netanyahu, hijo del primer ministro israelí, Benjamin Netanyahu, por supuestamente haber publicado mensajes que auspiciaban la islamofobia. “¿Saben dónde no se producen atentados? En Islandia y Japón, donde por casualidad no hay musulmanes”, se leía en su muro. No era la primera vez que algo así ocurría en la red social en 2018. La política volvía a inmiscuirse en el gigante tecnológico y abrió el debate que marcará este año: dónde está la línea de lo ofensivo en internet, hasta qué punto se puede hablar de un tema y quién puede decidir lo que se queda y lo que no.

El 2018 no fue el año de Facebook. El escándalo de Cambridge Analytica fue la bomba que destapó, en marzo pasado, un entramado político sin precedentes que se movía tras bambalinas mínimo desde las campañas presidenciales de Estados Unidos en 2016, que consistió en recopilar datos de millones de usuarios sin su consentimiento, mediante una aplicación, para elaborar perfiles psicológicos de votantes que supuestamente vendieron, entre otros, a la campaña del ahora presidente estadounidense, Donald Trump.

Las consecuencias fueron inmediatas. Apenas dos meses después, el 25 de mayo, entró en efecto el nuevo Reglamento General de Protección de Datos de la Unión Europea (más conocido por sus siglas en inglés GDPR), orientado a poner al día la legislación europea sobre la materia, buscando dar al usuario una participación activa sobre quién tiene o qué se hace con sus datos. La norma es de cumplimiento obligatorio en todos los Estados miembros, por lo que las empresas pueden ser sancionadas si la incumplen.

Pasado el primer semestre del año, la segunda mitad centró la atención en la otra gran batalla que se libra en el campo de internet al margen de la privacidad: el control de los contenidos y las noticias falsas (fake news). El debate es largo y todavía no hay una solución 100 % eficaz para garantizar la veracidad ni la pertinencia de lo que se publica. Uno de los grandes dilemas es si dejar las decisiones a seres humanos o soltar el análisis de la información y la toma de medidas a las máquinas, ayudadas por inteligencia artificial.

No es casualidad que tanto el fundador de la red social, Mark Zuckerberg, como el CEO de Google, Sundar Pinchai, tuvieran que comparecer ante el Congreso de Estados Unidos este año para someterse a un exhaustivo interrogatorio sobre las operaciones de sus compañías.

La propagación de noticias falsas repercute directamente en una baja confianza en los medios de comunicación: según un estudio de la encuestadora YouGov para el Instituto Reuters en 37 países de todo el mundo, un 44 % no confía en los medios. El investigador John Huxford, de la Illinois State University, explicó que las redes sociales pueden amplificar la desinformación actuando como una “cámara de eco”, dando credibilidad a los artículos simplemente porque son muy compartidos.

En términos políticos y electorales, la seguridad para los usuarios es clave. Según datos proporcionados a este diario por Facebook, “cuando los resultados confirmaron que la Presidencia de Colombia se definiría en una segunda vuelta, en la red social registramos más de 40.000 personas hablando sobre los comicios por minuto. En México, el pico fue de 175.000 personas y en Brasil de 700.000. En 2019, se celebrarán otras seis elecciones en América Latina, y esperamos poder seguir aplicando las lecciones aprendidas en este año que termina”.

Durante próximos comicios se pondrán en funcionamiento algunas medidas que ya se usaron antes, como equipos multidisciplinarios que trabajarán en tiempo real en varias ciudades, la firma de acuerdos con autoridades electorales, asociaciones con agencias de chequeo para disminuir la desinformación y conducir “sofisticadas investigaciones para desmantelar cuentas y páginas que oculten su verdadera identidad.

¿Libertad de expresión en línea?

Uno de los intentos por solucionar el problema del discurso se conoció el mes pasado, cuando Alphabet, matriz de Google, anunció una nueva herramienta que usa inteligencia artificial para contribuir a moderar conversaciones en internet, pues identifica y marca los comentarios que puedan ser percibidos como tóxicos. La tecnología, bautizada como Perspective, es usada desde hace algún tiempo en su versión en inglés por medios como The New York Times para ayudar a los trabajadores que moderan su sección de comentarios, y desde este lunes está disponible también en español.

“Los ataques personales, el lenguaje obsceno, el acoso a otros puntos de vista o la discriminación hacen que mucha gente tenga miedo a compartir sus opiniones en internet”, dijo en una entrevista a EFE Patricia Georgiou, la responsable de colaboraciones y desarrollo de negocio de Jigsaw, la rama de Alphabet que ha creado esta tecnología.

Algo similar está haciendo Facebook. Zuckerberg ha asegurado en varias ocasiones que la inteligencia artificial es la herramienta más importante para solucionar los problemas del sistema. Durante la pasada conferencia para desarrolladores F8, el pasado mayo, Mike Schroepfer, encargado técnico de la compañía (CTO), aseguró: “El poder de la inteligencia artificial radica en la velocidad y la escala a la cual puede operar. Tenemos mejor clasificación de imágenes y lo que pretendemos es identificar a esas personas que suben contenidos no autorizados en la plataforma. Cada vez que alguien intenta hacer algo inapropiado lo capturamos inmediatamente”.

Esta semana, por ejemplo, la compañía anunció el cierre de 425 páginas y 135 cuentas vinculadas al ejército birmano, en un intento de responder a las críticas que la acusan de servir de altavoz a discursos de odio en el país, especialmente contra los musulmanes rohinyás. Además, hasta julio Facebook aseguró haber eliminado casi dos millones de publicaciones relacionadas con ISIS. Suena tan esperanzador como riesgoso, teniendo en cuenta la enorme responsabilidad que se les está dando a los sistemas inteligentes para filtrar contenido, algo que, en esencia, es sopesar derechos fundamentales como la libertad de expresión.

Además, el gigante tecnológico le aseguró a El Espectador que, en su último reporte de transparencia, que fue publicado el 15 de noviembre y comprende el semestre de abril a septiembre del 2018, informaron que la cantidad de discurso de odio que detectaron proactivamente se duplicó hasta llegar a un 52 % (desde el 24 % del informe anterior). “La mayoría de las publicaciones que eliminamos en esta categoría ocurrió antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde aún está en su etapa inicial: los idiomas menos utilizados”.

La otra idea que ronda en la compañía sería la creación de un órgano independiente, que funcione como una Corte Suprema compuesta por personas, y que esté encargada de decidir lo que se elimina y lo que no. “Creo cada vez más que Facebook no debería tomar decisiones tan importantes sobre seguridad y libertad de expresión. El próximo año, estamos planeando una nueva forma para que los usuarios apelen este tipo de decisiones ante un cuerpo independiente, cuyas decisiones sean transparentes y sin sesgos”, escribió Ma el pasado mes.

La abogada Evelyn Douek aseguró que la decisión de Facebook “comenzará a transformar la forma y la definición del discurso y la comunicación internacional. Si la corte que propone Zuckerberg realmente funciona de forma independiente, significará una renuncia importante, por parte de Facebook, del poder del que goza hoy en día.

Este tipo de decisiones se tomarían con contenidos que estén en el borde de lo censurable. “El recurso se utilizaría, por ejemplo, en fotos que estén cerca de la desnudez o en las que haya sugestiones sexuales, pues generan numerosas interacciones antes de que modifiquemos la curva de distribución. Lo mismo ocurre con las publicaciones que no están incluidas en nuestra definición de discurso de odio, pero que siguen siendo ofensivas”.

Para Douek la creación de esta corte podría ser atractiva, comenzando por la posibilidad de que el próximo año incrementen las publicaciones que deban ser tratadas con cuidado. “Las decisiones de moderación de contenido en Facebook son difíciles, y es probable que cualquier llamado de atención moleste a una porción grande de usuarios de la red social. Al externalizar la decisión y la culpa, Facebook puede intentar lavarse las manos en las decisiones controvertidas”.

Fuente, Derechos & Autoría: El Mundo –6 Ene 2019 – 9:00 PM- Nicolás Marín Navas, https://www.elespectador.com/noticias/el-mundo/quien-o-que-decide-lo-que-se-debe-censurar-en-la-red-articulo-832657

GoodGame Quadama

Leave a Reply

Tu dirección de correo electrónico no será publicada.