¿Quién debe velar por el equilibrio entre la libertad de expresión y otros derechos en redes sociales, motores de búsqueda y otras grandes plataformas de Internet? ¿Qué rol deberían cumplir las empresas privadas que son sus propietarias? ¿Qué leyes se aplican y qué jueces deciden sobre los conflictos que en ellas se generan? ¿Cuentas con las mismas garantías los usuarios Latinoamérica que los de Estados Unidos?

Como un aporte para la resolución de estas cuestiones, el 29 de junio Observacom y Cainfo presentaron la propuesta Estándares para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en línea y una Internet libre y abierta. Reconociendo una situación de asimetría entre los proveedores de diferentes servicios de internet, este documento propone una serie de principios compatibles con los derechos humanos y recomendaciones para la creación de mecanismos de autorregulación, co-regulación y regulación pública de las grandes plataformas.

Luego de la presentación de la propuesta a cargo de Gustavo Gómez, director ejecutivo de Observacom, y de la exposición de Pedro Vaca, relator especial para la Libertad de Expresión de la CIDH, hubo un panel donde participó Mariana Fossatti, investigadora de Datysoc, junto a Victoria Gadea, politóloga, y Ana Laura Pérez, periodista.

A continuación les compartimos el video del evento:

Posición de Datysoc

Varias organizaciones de derechos digitales de Latinoamérica (OBSERVACOM, Intervozes, IDEC, CAinfo, TEDIC, PRODELI, IPANDETEC, entre otras) entienden que es apremiante consolidar una mirada latinoamericana sobre la moderación de contenidos y han firmado la propuesta de estándares de regulación de grandes plataformas. 

Desde Datysoc, enfatizamos la necesidad de prohibir los filtros automatizados de contenidos. Existen muchos ejemplos que demuestran que este tipo de filtros se presentan como una solución imperfecta para un problema imposible de resolver de forma automatizada (ver por ejemplo: [1], [2] o [3]). La inteligencia artificial se encuentra muy lejos de sustituir la labor de los jueces en su tarea de interpretar las normas legales. En definitiva, el concepto mismo de justicia no es automatizable

Consideramos que los estándares propuestos son un buen punto de partida. Por esta razón, brindamos nuestro apoyo planteando una Addenda con dos observaciones en relación al uso de filtros automatizados de contenidos:

Observación sobre el punto 2.5: las grandes plataformas no deberían remover contenidos sin orden judicial cuando deriven de reclamos relativos a derechos de autor. A estas plataformas no les corresponde evaluar la legalidad de reclamos de índole comercial en los que no subyace el riesgo grave e inminente de violación a los derechos humanos. También debe prohibirse el uso de filtros automatizados de contenidos como mecanismo de detección de posibles infracciones al derecho de autor. Estos mecanismos violan la prohibición de censura previa establecida en la Convención Americana de Derechos Humanos.

Observación sobre el punto 2.8 A: los filtros automatizados de contenido no constituyen herramientas idóneas para detectar y combatir los actos de discriminación, incitación al odio y en general la difusión de contenidos violatorios de derechos humanos. Ningún sistema de detección y filtrado automático será capáz de interpretar de forma justa las leyes nacionales, los tests de proporcionalidad y los umbrales de incitación a la discriminación, hostilidad o violencia.

 Notas de prensa relacionadas

En las siguientes notas de prensa pueden encontrar más información sobre la presentación de la propuesta:


0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *