Jornada sobre seguridad ciudadana e inteligencia artificial
En el Salón Rojo, el 4 de noviembre, se realizó una jornada sobre seguridad ciudadana e inteligencia artificial, organizada por la Asociación de Profesionales de la Seguridad de la Provincia de Buenos Aires y la cátedra de Derecho Administrativo del profesor Carlos F. Balbín.
La misma contó con la participación de Daniel Garibaldi (licenciado en Seguridad, IUPFA, magíster en Defensa Nacional, EDENA, y doctor en Seguridad y Prevención por la Universidad Autónoma de Barcelona) y Roser Martínez Quirante (licenciada y doctora en Derecho por la Universidad Autónoma de Barcelona, UAB, profesora titular de Derecho Administrativo en la Facultad de Derecho de la UAB). Federico Gallo Quintian (juez de Primera Instancia en lo Contencioso Administrativo N°1 del Departamento Judicial de La Matanza) moderó la actividad.
En primer término, Daniel Garibaldi se refirió al control de armas en Argentina. “Tenemos normas que están muy pulidas, que están muy bien redactadas, que cubren todos los intersticios, pero que al mismo tiempo se dejan espacios que permiten que se lleven a cabo actividades que pueden ser peligrosas”, detalló. Enfatizó que las armas pequeñas son las más peligrosas y puso de manifiesto que la legislación a nivel internacional de armas pequeñas es muy posterior a la de las armas militares, a los obuses y demás tipo de armamento.
En cuanto a la legislación en particular, se refirió a la ley nacional de armas y explosivos, que es la 20.429 y el decreto reglamentario 802 del año 1983. “Lo primero que nos llama la atención es la fecha de vigencia. Estamos hablando una ley que es del año 1973 es una ley que ya tiene 46 años, es una ley antigua y eso llama la atención porque la evolución de las armas y la conflictividad que generan merecería que vuelva a ser revisada”, sostuvo.
Por otro lado, indicó que “el poder de policía en materia de armas de fuego, armas y explosivos en la República Argentina es la Agencia Nacional de Materiales Controlados (ANMaC), que se encarga de los registros, las fiscalizaciones, los controles en torno a todas las actividades que tengan que ver con armas de fuego y explosivos”.
Posteriormente, aseveró que el problema son las armas que no están registradas porque es difícil poder cuantificarlas. “Los mayores tenedores de usuarios de armas de fuego en Argentina que son las fuerzas armadas, las fuerzas de seguridad y las fuerzas policiales están por fuera del organismo que tiene el poder de policía y el poder de contralor. Esto es llamativo y peligroso a mí entender. Entonces cómo hacemos para controlar el contrabando de armas si el mayor fabricante de armas automáticas, como es Fabricaciones Militares, está por fuera del poder de policía”, desarrolló.
A continuación, Roser Martínez Quirante se enfocó en la campaña “Stop Killer Robots”. En este sentido, explicó: “Estamos luchando para que Naciones Unidas pueda lograr un tratado internacional para prohibir las armas autónomas letales”. Y detalló que “estas armas, en forma de dron sobre todo, pueden poner en peligro nuestra seguridad porque no será un humano el que las controla sino que es la propia inteligencia artificial a través de algoritmos los que definirán si vale la pena acabar o no con una vida humana”. Asimismo, remarcó: “Nos estamos enfrentando a una realidad muy grave que quizá no es del todo conocida por la ciudadanía que es el avance de la inteligencia artificial para fines violentos y letales, es decir, las armas autónomas”.
En la misma línea argumental, afirmó que “los problemas que estamos teniendo es que estamos cediendo las decisiones sobre la vida o la muerte a algoritmos y aprendizaje automático y, en definitiva, a la inteligencia artificial”. Y expresó: “Las lethal autonomous weapons systems (LAWS) ya no son ciencia ficción. Estamos en una etapa en la que Hollywood ya nos anticipó lo que estamos a punto de ver”.
Más adelante, agregó que “algunos Estados disponen de armas semiautónomas con inteligencia artificial que de momento admiten supervisión a humana y garantizan que cada objetivo se valide éticamente legalmente con fines legítimos”. Sin embargo, subrayó que “lo que estamos a punto de ver es que la tecnología permitirá que armas completamente autónomas seleccionen y ataquen objetivos sin participación humana”.
Luego distinguió dos tipos de tecnología: “Los sistemas automáticos que siguen órdenes preprogramadas y específicas con poco espacio de variación en un entorno estructurado y el otro serían armas autónomas con libertad para determinar sus propias acciones en un ambiente no estructurado”.