Durante 2021, preocupados por el crecimiento del ecosistema de vigilancia automatizada en manos de la policía uruguaya, iniciamos una investigación con el fin de analizar cómo usaba o planificaba usar el Ministerio del Interior el software de reconocimiento facial automatizado (RFA) adquirido en 2020 y también cuál era el tratamiento planificado de la nueva base de identificación facial creada a partir de las fotografías de rostros provenientes de las cédulas y pasaportes de toda la población. Para ello realizamos diferentes entrevistas y solicitudes de acceso a la información pública y finalmente publicamos el Informe sobre la situación del Uso Policial del Reconocimiento Facial Automatizado (RFA) en Uruguay.

Lamentablemente, el Ministerio del Interior no colaboró con nuestra investigación y calificó como reservada (de forma ilegal) la información pública que le solicitamos. Tampoco acompañó la iniciativa de coorganizar «Mesas de diálogo sobre uso de sistemas de vigilancia automatizada» presentada por Datysoc, con el apoyo de otras organizaciones, en el 5º Plan de Acción de Gobierno Abierto.

En ese punto entendimos que enfrentábamos un problema grave relacionado con la cultura institucional del Ministerio del Interior. La policía ha construido barreras para evitar un diálogo genuino con la sociedad civil,  maneja lógicas autárquicas y una cultura institucional de opacidad extrema, llegando al punto de incumplir la Ley de Acceso a la Información Pública para mantener este blindaje. En este contexto, el diálogo deja de ser una opción, por lo que decidimos ir por la vía del litigio.

¿Qué información obtuvimos durante el litigio?

Para dar cierre y confirmar varios de los escenarios que manejamos en nuestro informe, decidimos presentar una demanda de acceso a la información pública contra el Ministerio del Interior. Y, como resultado, el Ministerio no tuvo otra opción más que responder nuestras preguntas y entregarnos la mayor parte de la información que nos negó inicialmente.

A partir de la información obtenida en la audiencia del litigio, podemos afirmar con seguridad que no están dadas las garantías básicas de resguardo a los derechos fundamentales para el uso del sistema de RFA y que el Ministerio del Interior opera desde una óptica tecno-solucionista acrítica en la que todo se arregla comprando más tecnología. 

Casi tres años después de la adquisición del software de reconocimiento facial, a unos meses de que venza el contrato, el Ministerio no ha cumplido con su obligación de designar un Delegado de Protección de Datos Personales, no ha realizado una evaluación de impacto previa a la implementación del sistema, no ha creado protocolos sobre el uso de RFA, no ha previsto la capacitación sobre RFA para actores del sistema judicial y afirma que ¡aún no sabe para qué se usará el software contratado! 

La explicación que proporciona el Ministerio es que se han creado comisiones para tratar los temas relacionados con tecnologías de vigilancia. Mientras tanto las mismas preguntas que teníamos cuando iniciamos la investigación siguen sin respuesta: ¿Quién autoriza el uso del sistema de RFA?, ¿Cuáles son los contextos específicos de uso?, ¿Cómo se auditará el uso del sistema?, ¿Cómo se controlará el acceso al sistema?, ¿Cómo debe proceder un oficial ante un match biométrico (coincidencia de un rostro con la base)?, ¿Cuándo puede aceptarse un match biométrico como prueba?, ¿Cómo se valorará esta prueba?, ¿Cómo se abordará la posibilidad de sesgos en el sistema?, ¿Cuándo y cómo se informará al indagado o imputado de la existencia de este tipo de prueba?, ¿Cómo se abordarán las diferencias entre un match biométrico en ambiente controlado y uno en ambiente no controlado?, ¿Cómo se cancelarán estos datos cuando ya no sean necesarios? Nada de esto se ha definido aún. Vale la pena destacar que la mayoría de estas decisiones deberían tratarse en Comisiones Parlamentarias y cristalizar en normas de rango legal precisas y públicamente accesibles.

Esperando la sentencia final

Si bien obtuvimos la mayor parte de la información solicitada en la audiencia del juicio, no obtuvimos respuesta a una pregunta crucial: ¿Qué uso específico le da o le dará al sistema de RFA adquirido?

El Ministerio realizó hace casi 3 años un gasto de casi un millón de dólares y, faltando unos pocos meses para finalizar el contrato, afirma que aún no sabe exactamente para qué adquirió esa tecnología de reconocimiento facial, aduciendo que basta con expresar que el software será usado para el cumplimiento de sus objetivos generales de acuerdo a la Ley Orgánica Policial.

La cuestión aquí es que el Ministerio debe fundamentar sus decisiones de compra sin basarse en fórmulas generales y también debe cumplir con el principio de finalidad de la Ley de Protección de datos Personales (18.331) informando a los ciudadanos, de forma específica y no ambigua, qué tipo de tratamiento le dará a sus datos personales. Entonces, ¿es posible que no sepa para qué adquirió el software? Esta pregunta se transformó en el objeto central del litigio. 

El Juez de primera instancia expresó que no le corresponde juzgar la “desidia del Estado en la puesta en práctica del sistema y por tanto del mal uso de los dineros públicos”, y que no corresponde al Ministerio del Interior brindar información si aún no la ha producido.

Bajo el entendido de que esa información existe, porque producirla es una obligación legal previa a la compra, decidimos apelar esta sentencia y, actualmente nos encontramos esperando la sentencia definitiva.  

___

Finalmente, desde una mirada más optimista, podemos decir que, más allá del resultado de la sentencia final, el litigio ya ha resultado útil para abrir una ventana de oportunidad en pos de la mejora de la transparencia y la rendición de cuentas. Como resultado del litigio sabemos que el Ministerio ha decidido que el software de RFA no se encuentre operativo y que se necesita adquirir otros complementos para poder realizar reconocimiento facial de forma remota y en tiempo real en espacios públicos. En este contexto, aún estaríamos a tiempo de generar instancias de participación y supervisión ciudadana de forma previa al despliegue de tecnologías de vigilancia, como la co-construcción de su regulación o la celebración de consultas públicas o la creación de órganos de seguimiento integrados por representantes del gobierno, empresas, sociedad civil y academia. 


0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *