¿Cómo establecer reglas democráticas para la moderación de contenidos que garanticen simultáneamente la libertad de expresión y disminuyan la desinformación? La pregunta fue parte del debate que se dio en el Foro internacional «Atrapados en la red: Las noticias falsas y los discursos de odio como amenazas para la convivencia democrática”, en el marco del Consejo Económico y Social, con numerosos participantes multisectoriales, multipartidarios y con intervenciones de varias ponencias europeas.
El investigador argentino Martín Becerra presentó las siguientes “diez tesis” que incluyen una propuesta y una conclusión finales:
La respuesta incluye diez tesis, una propuesta y también una conclusión.
- La presente etapa -caracterizada por la diseminación global de las TIC y por la Internet plataformizada con accesos masivos que, en la medida que se reduzcan las brechas digitales, serán aún más amplios- precisa como nunca de reglas de moderación de contenidos. En otras palabras: no hubo en ninguna etapa de la historia humana y en ninguna experiencia democrática, sociedad o grupo que, en su propia constitución, no estableciera reglas sobre lo que está permitido y no está permitido decir y hacer (por ejemplo, la pedofilia, la apología del delito y del terrorismo, los contenidos que ponen en riesgo la salud y la vida de terceros en nuestras sociedades). La base de la socialización es la construcción de pautas de convivencia en común.
- El establecimiento de esas reglas, en la medida que sean legítimas y claras, que inequívocamente estén dirigidas a alcanzar objetivos de protección de derechos humanos, que sean establecidas por ley, que sean proporcionadas a su finalidad y que garanticen recursos de apelación y revisión, fortalece el derecho a la libertad de expresión en su doble dimensión individual y social. Lo anterior parafrasea los estándares del Sistema Interamericano de DDHH y en particular los de la Convención Americana, que tiene rango constitucional en la Argentina, y recrea los principios internacionales en la materia.
- Hoy Internet, y en particular las grandes plataformas digitales que concentran la inmensa mayoría de los usos y aplicaciones masivos, no es un espacio carente de reglas de juego sobre qué puede y no puede decirse. Las cuentas y contenidos suspendidos y removidos del expresidente Donald Trump y otros varios mandatarios, incluso latinoamericanos, o la censura online sufrida por movimientos de derechos humanos y de derechos civiles en Colombia, Myanmar, Palestina o Bielorrusia, o la eliminación de la foto de “la niña del Napalm” por Facebook a pesar de su valor histórico, ilustran este argumento: los contenidos online tienen restricciones, hay definiciones variables sobre qué significa y cuáles serían los alcances del “comportamiento inauténtico” que las plataformas utilizan como motivo de remoción; en suma: la libertad de expresión no es absoluta en Internet.
- Por consiguiente, hoy ya hay regulaciones de contenidos. Las deciden las compañías dueñas de las plataformas, es decir que es una regulación de facto. Y la evidencia reunida en los últimos años muestra que es una regulación mutante según reglas que no son democráticas -pues son corporativas-, que son opacas, que son contradictorias entre sí incluso al interior de una misma plataforma, y que no son recurribles en la mayoría de los casos y por la mayoría de los usuarios.
- Como dijo el secretario de Asuntos Estratégicos, Gustavo Béliz, al abrir el Foro, las plataformas son hoy un espacio donde públicamente se conversa sobre cuestiones de interés común en las sociedades contemporáneas, donde las personas se informan, acceden a contenidos vitales para su salud, su educación, su trabajo y sus lazos con los afectos. Pero las plataformas digitales no son el único espacio de producción de contenidos donde circulan operaciones de desinformación: los medios tradicionales y la política profesional no son ajenos a ello (en las pantallas televisivas argentinas se promovió el consumo de productos lesivos para la salud pública en plena pandemia Covid-19, por ejemplo) y, es más, medios y políticos son animadores centrales de los contenidos más comentados en las plataformas digitales.
- El volumen y la velocidad de viralización de contenidos en la sociedad red son inéditos y su moderación es una tarea ciclópea. No pueden hacerlo sólo personas, dada la programación algorítmica de las plataformas y el torrente de contenidos subidos a Internet cada segundo, pero tiene que haber muchísimas más personas y organizaciones comprometidas con la tarea. Los discursos sociales se inscriben en contextos (condiciones de enunciación, advertía Eliseo Verón) cuyo análisis es insoslayable para que la moderación sea adecuada, sea proporcional y no afecte el derecho a la expresión y preserve el derecho a la no discriminación, a la protección de datos y a la privacidad.
- En foros como este escuchamos preocupaciones genuinas sobre la desinformación, las noticias falsas (que no son sinónimos) y sobre discursos de odio. El problema es la polisemia y ambigüedad de esos conceptos, que en una misma sociedad tienen interpretaciones e intérpretes muy diversos y hasta antagónicos. Debemos ser conscientes de este problema que, como muestra la legislación alemana sobre moderación del discurso de negación del genocidio nazi –que no es extrapolable de modo sencillo al continente americano, al menos no en el marco del respeto a la Convención Americana DDHH- demanda una laboriosa definición.
- La pregunta es cómo se establecen las definiciones y las reglas de moderación del discurso público en plataformas privadas globales, es decir, quién y bajo qué condiciones establece esas reglas, qué criterios toma en cuenta para establecerlas, y quién controla a quien ejecuta esa función.
- De aquí surgen varias preguntas relevantes: ¿hay mensajes que justifiquen la remoción sin previo contacto o derecho a descargo por parte de quienes los producen, aparte de los consabidos y legitimados límites a contenido ilegal?, ¿cuál es el trámite adecuado, según los estándares respetuosos de la libertad de expresión que comprende tanto el derecho a decir como el derecho a recibir opiniones diversas, para proceder a una remoción, a un bloqueo de cuenta o a la reducción de su alcance?, ¿pueden disponer grandes compañías privadas, como las big tech, políticas de contenidos que afecten el debate público en temas de interés relevante (elecciones, por caso) a espaldas de principios internacionales y de leyes nacionales de los países donde comercializan sus servicios?, el diseccionar unos contenidos catalogándolos como removibles o susceptibles de clasificación con etiquetas añadidas por la plataforma con criterios cambiantes en poco tiempo, ¿no ubica a las plataformas digitales como editoras de contenidos, y por lo tanto con responsabilidad ulterior por ello, como ocurre con los medios de comunicación, sean privados, públicos o comunitarios?, ¿es lógico que corporaciones privadas se arroguen el poder de policía sobre los contenidos que organizan la conversación pública, los flujos masivos de información y de opinión?, ¿acaso eso no supondría la institucionalización de censores privados con un poder superior a cualquier poder democrático?
- La propuesta es que la naturaleza compleja e inédita de esta tarea sea asumida por la representación democrática de la sociedad; las respuestas deben ser simultáneamente regulatorias, corregulatorias y autorregulatorias, multisectoriales y multipartidarias. El desafío es cooperativo. No hay una sola medida que resuelva el conjunto variado de problemas que afrontamos. En particular, tanto el Poder Legislativo como el Poder Ejecutivo pueden albergar y convocar a debates amplios, con la participación extensa de la sociedad civil. Cuanto más abierto, democrático y participativo sea ese debate, más legítimas, plurales y respetuosas de los derechos humanos serán las respuestas.
(Tomado de Quipu)