Normas “comunitarias” y censura en redes sociales

Ilustración en la que se ve un brazo que sale desde la pantalla de un celular y tapa la boca de una joven censurándola.

La censura de fotografías, el baneo o “shadow banning” y hasta la eliminación de cuentas para una supuesta protección de normas “comunitarias”, son monedas corrientes en las redes sociales, aunque no está clara la lógica ni el criterio con que se aplican. Las redes sociales, como parte de un ecosistema digital, no son estructuras neutrales. En este marco, existe una relación de negociación constante entre usuarixs y propietarios desde que creamos una cuenta y aceptamos los términos y condiciones de servicio. Pero, ¿de qué clase de negociación hablamos? ¿Cuál es nuestra capacidad de disputar espacios en las plataformas? ¿Existe solución para usuarixs entusiastas y medios autogestivos ante maquinarias capaces de invisibilizar la diversidad?

*Ilustración: Caro Zuch para Alta Trama.

La práctica de censura más conocida en Instagram consiste en el baneo o shadow banning en inglés, un mecanismo que oculta o reduce el alcance de las publicaciones y/o perfiles por el tipo de contenido que sube o por los hashtags utilizados en las publicaciones. También, existen medidas unilaterales que determinan la eliminación de publicaciones y en algunos casos, de cuentas, sin la posibilidad de revertir la situación.

En nuestro caso desde Alta Trama, nos fue eliminada nuestra cuenta de Instagram con 18.5k seguidorxs. Como en muchos otros casos, suena bastante paradójica la eliminación arbitraria de material generado durante años de trabajo -con el fin de fomentar una mayor participación en el debate mediático latinoamericano-, en virtud de la supuesta protección de normas comunitarias

Las normas comunitarias de las plataformas digitales nos invitan a reflexionar acerca de la tensión entre conexión comunitaria y potencia corporativa. Autenticidad, inspiración y expresión son los pilares sobre los que procuran sostenerse estas “increíbles comunidades”. Sin embargo, es clave corrernos de esta lógica de rivalidad para comprender y cuestionar a fondo qué pasa en los intersticios de nuestras prácticas de todos los días.

Desde su surgimiento a esta parte, las principales plataformas han sabido posicionarse como referentes en la construcción de significados. En el caso de Facebook, su meteórica carrera a la cima estuvo marcada por la incorporación intencionada al lenguaje cotidiano de los términos compartir y privacidad. El primero ligado a la apertura y a la transparencia, el alcance, la inmediatez, la magia de la conexión en todo momento. 

El segundo, un concepto algo opaco relacionado con el ámbito jurídico legal. En este juego del lenguaje, la privacidad toma la forma de un término cambiante y ambiguo que admite ciertos permisos si lo que se busca al final de cuentas es compartir. Esto explica la normalización de la dinámica de las redes sociales en la vida cotidiana, un tira y afloja que se traduce en un proceso que tiene tanto de “alegre apropiación como de resistencia crítica”, como menciona la investigadora holandesa José Van Dijck, en su libro La cultura de la conectividad.

Si vamos a manifestar que se trata de una relación de negociación constante entre usuarixs y propietarios, de entrada debemos rechazar cualquier idea que comprenda al ecosistema digital como una estructura neutral. Hay proceso de negociación cuando creamos una cuenta en Instagram y aceptamos los términos y condiciones de servicio. Lo interesante es preguntarnos de qué clase de negociación hablamos y cuál es nuestra capacidad de disputar ciertos espacios y prácticas en la plataforma

La resistencia crítica muchas veces toma la forma de protesta y obtiene niveles de impacto impensados, como el reciente caso de OnlyFans y la marcha atrás en su decisión de censurar todo contenido “sexual explícito” ante el inminente éxodo hacia otra plataforma. Estas resistencias están atadas a cambios en interfaces, en las condiciones de servicio, a medidas arbitrarias o a la alteración de funcionalidades.

En esta línea, Van Dijck sostiene que “un número cada vez mayor de usuarios comienza a mostrarse crítico de los mecanismos inherentes a los medios conectivos y a buscar las respuestas adecuadas a ello; en última instancia, tienen aún la posibilidad de desplazarse hacia otras plataformas que ofrecen al usuario más control sobre sus datos o a sitios que son más transparentes en cuanto sus modelos de negocios o políticas de privacidad, si bien el cambio de medio puede tener un costo elevado”. 

Podemos migrar hacia otras plataformas o incluso explotar las alternativas del código abierto para crear las nuestras. Pero no debería ser (y no es) la única salida ante las plataformas que, proclamando valores comunitarios y democráticos, se resisten a la regulación a partir de políticas que armonicen el modo en que se relacionan con lxs usuarixs.

¿Qué tanto sabemos sobre el proceso de censura de una imagen? ¿Tenemos clara la lógica del procedimiento de desactivación y posterior eliminación de una cuenta? ¿Quién lo decide y bajo qué criterio? ¿Hablamos de algoritmos o de moderación humana?

Siguiendo a Van Dijck, “las condiciones de servicio suelen ser difíciles de entender, los propietarios pueden modificarlas unilateralmente y volver a las configuraciones de privacidad por default, lejos de estar a un click de distancia a menudo demanda un grado de ingenio técnico considerable. Todos estos problemas son discutidos en este momento, pero sobre todo en el nivel de los microsistemas, no como problema en su totalidad.” 

Desde la perspectiva de la autora, es imprescindible analizar el ecosistema digital en su totalidad para poder vislumbrar las estrategias de integración vertical que potencian a las plataformas individualmente y el modo en que se encuentran interrelacionadas.

Algoritmos y moderación humana

Los algoritmos son una herramienta clave en el proceso de censura, teniendo en cuenta que actúan como filtros para determinar si se requiere moderación humana para decidir cómo continuar el caso. Lo que resulta interesante es que la moderación humana no es representada únicamente por las empresas tercerizadas que trabajan para calificar contenido, sino que los modelos algorítmicos también se apoyan sobre decisiones humanas que indican qué sí y qué no dentro de la plataforma. 

Si bien atendiendo al modelo corporativo de la plataforma podemos pensar en que las decisiones se vinculan con cuestiones estadísticas y de beneficio económico en primera instancia, nos exigen pensar también en quiénes están a cargo de la modelización y codificación, teniendo en cuenta el impacto que tienen sus decisiones en segmentos de todas las culturas, géneros y edades.

Nos queda preguntarnos entonces qué se entiende por sentido de comunidad, y qué tanto más hacen las plataformas para defender prácticas comunitarias. Este interrogante nos obliga a ir más allá de la denuncia de censura y comenzar a cuestionar qué lugar ocupan los medios autogestivos en el ecosistema de las plataformas digitales y cómo actuar para sostener negociaciones menos frustrantes con ellas. 

En principio, y teniendo en cuenta la cantidad de medios de comunicación y el entusiasmo con el que defienden valientemente su espacio en internet, la resistencia colectiva sigue siendo la alternativa. Existen en América Latina, diversas organizaciones ciberfeministas dedicadas a la difusión de información sobre comunicación con perspectiva de género y herramientas y recursos para habitar el universo digital. Un claro ejemplo es el colectivo feminista Luchadoras, de México, que se convirtió en una verdadera fuente de recursos para profundizar los debates acerca del ciberfeminismo y fortalecer la apropiación de tecnologías por parte de las minorías. 

En este sentido, una de las premisas del colectivo es el cuestionamiento de la neutralidad de los códigos de programación, teniendo en cuenta que se trata de un lenguaje a partir del cual se toman decisiones políticas. En el marco de la defensa del software libre, debemos colectivamente exigir el acceso a ese saber hacer propio del lenguaje de codificación, porque es justamente ahí donde tienen lugar los sesgos capaces de invisibilizar la diversidad. 

Una articulación integral entre políticas públicas que promueva campañas de inclusión digital a través de formación profesional, como puede ser el caso del reciente plan Argentina Programa; compromiso empresarial que colabore en la disminución de la brecha de género en puestos de tecnología, y responsabilidad individual que fomente entornos de conexión más empáticos.

Nos queda decir que al momento no existe en Argentina un marco normativo que contemple el alcance y las consecuencias de la inteligencia artificial desde la órbita del derecho civil. Y esto nos obliga a exigirlo, no solo en lo legal sino en lo educativo, formativo y empresarial. El escaso conocimiento de la lógica operativa y económica de las plataformas pone en riesgo nuestro derecho de defensa como usuarixs. 

Entonces, ¿puede una plataforma de modelo comunitario funcionar de manera eficaz en un entorno corporativo constituido por plataformas con este nivel de interrelación y sin espacios no comerciales? Probablemente sí, pero a un altísimo costo y apuntando a nichos demasiado específicos. Mientras tanto, somos muchxs lxs entusiastas que seguimos buscando construir ecosistemas digitales más equilibrados, y para eso, se necesitan marcos normativos, acceso a la información y sobre todo, debate e inclusión.

Muchos de estos interrogantes y reflexiones comenzaron a tomar forma a partir de la participación en el Taller Redes Sociales con perspectiva de género, a cargo de las profesoras Martina García, Agustina V. Silombra y Gala Yasmín Amarilla y coordinado por el CCEBA (Centro Cultural de España en Buenos Aires) en junio de 2021 en el marco de la segunda edición de Armarios abiertos Diversidad sexual en la cultura iberoamericana y del programa DIVERSES.

Referencias

Ixchel Aguirre (2019), “Código, un lenguaje que es político”. Disponible en: https://luchadoras.mx/codigo-un-lenguaje-politico/

Milio, Dalila N. ¿Es posible evitar los daños ocasionados por el uso de Machine Learning en redes sociales? 12 de agosto de 2021. Disponible en: https://www.ented.net/post/es-posible-evitar-los-da%C3%B1os-ocasionados-por-el-uso-de-machine-learning-en-redes-sociales

Van Dijck, José (2016) La cultura de la conectividad: una historia crítica de las redes sociales. Buenos Aires, Siglo XXI.

Recibí las últimas notas​

Formá parte de este nuevo canal de comunicación para recibir las últimas notas de Alta Trama en tu casilla de correo.

¡Sin spam! Recibirás este correo una vez al mes, y siempre podrás desuscribirte.

Los comentarios están cerrados.