En el artículo 74 la Ley N° 20.212 de Rendición de Cuentas aprobada el año pasado, nuestro Parlamento mandata a la Agesic a presentar un informe con recomendaciones para la regulación legal de la inteligencia artificial en Uruguay. Para ello, Agesic elabora el documento “Bases para la discusión del documento del informe preliminar previsto en el artículo 74 de la Ley 20.212” y convoca a una consulta cerrada a diferentes organizaciones especializadas. Datysoc y DATA Uruguay fuimos invitados a participar en la consulta sobre el informe.

Desde Datysoc expresamos que, de forma genérica estamos de acuerdo tanto con el análisis planteado como con los aspectos priorizados y con los lineamientos generales de la propuesta elaborada por Agesic. Aunque existe un aspecto central que el documento omite abordar de forma explícita y clara, se trata de una pregunta que seguramente varios legisladores tengan en mente: ¿Necesitamos una regulación general de la IA o debemos regular determinados usos de la IA o su uso en determinados sectores? 

Desde Datysoc entendemos que aún no están dadas las condiciones para una regulación generalista basada en la determinación de diferentes niveles de riesgo, la asignación de obligaciones diferenciadas para cada uno de esos niveles de riesgo y en la creación de nueva institucionalidad especializada para la IA. Hace falta comprender mejor el panorama para regular, por eso proponemos recomendar a los parlamentarios la creación de un foro parlamentario para: 1) promover las líneas definidas en el documento elaborado por la Agesic, 2) detectar otras prioridades a nivel nacional y 3) formular recomendaciones por parte de diferentes actores sociales para una regulación adecuada y sostenible.

De forma paralela a esta discusión, sugerimos centrar los actuales esfuerzos regulatorios en la actualización del cuerpo normativo nacional vigente y en la regulación de los actuales usos de la IA por parte del gobierno que impliquen alto riesgo. 

En cuanto a las necesidades de reforma en el cuerpo normativo nacional vigente, recomendamos:

  1. La revisión de los Arts. 13 y 16 de la Ley 18.331 de Protección de Datos Personales incluyendo la inclusión de estándares mínimos de transparencia, interpretabilidad y auditabilidad algorítmica.
  2. La revisión de la Ley 18.381 de Acceso a la Información Pública incluyendo el derecho a ser informado sobre qué decisiones se toman de forma automatizada o con apoyo de un sistema automatizado por parte de la administración pública, incluyendo también estándares mínimos sobre transparencia, interpretabilidad y auditabilidad algorítmica.
  3. La revisión de los artículos 45 y 46 de la Ley de Derechos de Autor (Ley 9.739) para dar seguridad jurídica tanto a los investigadores y desarrolladores como a la comunidad especializada en InfoSec. Para ello proponemos incluir excepciones al derecho de autor (y a las medidas de protección tecnológica) que habiliten el uso de obras con fines de análisis computacional y entrenamiento y también el análisis de los sistemas con fines de auditabilidad y explicabilidad, explicitando que quedan estrictamente prohibidos los usos competitivos o que perjudiquen injustificadamente al autor o titular de los derechos sobre las obras.

Por último, destacamos al uso policial de la IA como un emergente de alto riesgo que amerita urgente regulación. El Ministerio del Interior ha venido construyendo un ecosistema de vigilancia automatizada en apoyo al cumplimiento de sus cometidos basada tanto en IA como en otro tipo de sistemas. Este ecosistema no ha sido acompañado por la debida regulación ni por criterios de transparencia proactiva que aporten confianza sobre su funcionamiento. No existe ninguna regulación relacionada con el uso policial de los sistemas recientemente adquiridos por el Ministerio del Interior. Por ejemplo, el de reconocimiento facial automatizado, el software UCINET (software de inteligencia sobre fuentes abiertas como redes sociales), el sistema ShotSpotter (sistema que implica la colocación de micrófonos en las calles para que una IA detecte disparos) o inclusive un software de analítica de cámaras para “determinar conductas sospechosas que puedan advertir al policía antes de que se produzca el delito”. También vale la pena destacar que ni en el Código del Proceso Penal o en la Ley de Procedimiento Policial contamos con ninguna regulación sobre admisibilidad o valoración de la prueba digital, ni con protocolos públicos sobre el uso de la IA adquirida por el Ministerio del Interior, ni con la formación de los actores judiciales en torno al funcionamiento de esta IA. Proponemos, entonces, la creación de una nueva línea en el documento: “Línea uso de IA con fines de vigilancia policial y como prueba en el proceso penal”.

Aquí puedes descargar el documento con las recomendaciones completas que Datysoc presentó en el marco de la consulta impulsada por la Agesic.

También les compartimos el documento presentado por DATA Uruguay que incluye las siguientes recomendaciones:

1) Regulación urgente sobre la toma automatizada de decisiones a través de sistemas de inteligencia artificial, especialmente en la administración pública.

2) Apertura de audiencia pública en la que nuestros legisladores puedan interactuar con empresas, academia y sociedad civil especializada, luego de finalizada esta consulta.

3) Fortalecimiento de la INDDHH mediante el establecimiento convenios de formación con la academia y la sociedad civil especializada en derechos digitales para poder cumplir con esta función de recomendación sobre IA y DDHH.

4) Incorporación en la legislación de estándares modernos como por ejemplo sobre transparencia algorítmica y supervisión humana significativa.

5) Reforma de la Ley N° 19.179 de formatos abiertos y software libre y su decreto reglamentario (Decreto N° 44/015) para impulsar la promoción preferencial de la utilización de modelos de IA Abierta y también para incluir un mecanismo de intervención por el que la Agesic determine el riesgo y asesore a los entes públicos para realizar evaluaciones de impacto de forma previa a la adquisición de soluciones basadas en IA.

6) Urgente regulación de la adquisición y uso de software de vigilancia por parte del Ministerio del Interior.


0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *