¡Seguinos!

Año XXII - Edición 396 05 de octubre de 2023

Buscar

Inteligencia artificial, juicio criminal y garantías de la defensa

  • Notas

El pasado de 13 de septiembre, en la Sala Vélez Sarsfield, se llevó a cabo la actividad "Inteligencia artificial, juicio criminal y garantías de la defensa", organizada por el Centro Ítalo Argentino de Altos Estudios (UBA-Embajada de Italia en Buenos Aires), el Laboratorio de Innovación e Inteligencia Artificial, el Departamento de Filosofía y el Departamento de Posgrado. El Grupo Científico y Académico del Team Europe apoyado por la Delegación de la Unión Europea en Argentina auspició el evento.

En este marco, tuvo lugar la conferencia del profesor Luca Marafioti (Università degli Studi Roma Tre). La presentación estuvo a cargo del profesor Daniel Pastor. En tanto, Andrés Rosler se focalizó en la discusión.

A su turno, Luca Marafioti ofreció una definición de inteligencia artificial. “Es posible

referirse a la inteligencia artificial como al conjunto de métodos, teorías y técnicas científicas

cuyo objetivo es reproducir, mediante una máquina, las habilidades cognitivas de los seres

humanos”. En ese sentido, destacó que los instrumentos de inteligencia artificial se dividen en dos áreas principales. “Las técnicas basadas en el razonamiento requieren la construcción previa de una representación de los problemas a resolver y las reglas de inferencia a utilizar. (...) El segundo grupo de técnicas se funda en el aprendizaje”, planteó.

Seguidamente, se refirió a la normativa sobre inteligencia artificial. “Al tener en cuenta los posibles aspectos de tensión entre las potencialidades de aplicación de los sistemas automáticos y los derechos fundamentales de los individuos, las organizaciones internacionales han considerado necesario individualizar una serie de criterios éticos y jurídicos que rijan la implementación y el uso de modelos de inteligencia artificial al servicio de la justicia”, puntualizó. Comentó que el texto más significativo adoptado sobre el tema por el Consejo de Europa es la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno, publicada en diciembre de 2018.

En esa misma línea argumental, explicó la injerencia de la inteligencia artificial en el derecho italiano. “La potencialidad de los instrumentos basados en la IA ha interesado también a la justicia penal. El recurso a sistemas inteligentes es posible tanto para finalidades de prevención como durante las investigaciones preliminares, y llega a alcanzar nada menos que a la fase de cognición”, indicó. Y agregó: “Sin embargo, en la experiencia italiana el uso de tales tecnologías prolifera en el ámbito de predictive policing y en las investigaciones preliminares, mientras tarda en llegar al debate, justamente donde su ingreso genera más y mayores dudas”. Señaló que los usos más significativos de los sistemas de inteligencia artificial en Italia conciernen a las operaciones de law enforcement, en particular, en vistas del objetivo de prevención de los delitos.

Por otro lado, reconoció una serie de riesgos que derivan del uso de tales tecnologías. “En primer lugar, su utilización puede interferir con el derecho a la privacy, tanto en su significado de derecho al respeto de la vida privada como a la protección de los datos personales”, destacó. “El uso de tales sistemas también podría tener como consecuencia la modificación de sus costumbres, en caso que las personas sean inducidas a autolimitarse en el ejercicio de sus derechos fundamentales”, reconoció y agregó que “las tecnologías de reconocimiento facial presentan un alto porcentaje de fiabilidad en su aplicación práctica. Y recordó que “los sistemas considerados comparten con herramientas basados en la IA algunos aspectos críticos como la escasa transparencia y, por consiguiente, la imposibilidad de acceder a los mecanismos que producen un cierto resultado, así como la capacidad para generar efectos discriminatorios respecto de individuos y grupos”.

En otro orden, aludió a la prueba basada en la inteligencia artificial. “Puede ser considerada una subespecie de la prueba científica y su área de influencia coincide en buena parte con aquella de la prueba digital. Desde esa perspectiva, es necesario advertir el progresivo cambio de paradigma que afecta a la dogmática de la prueba, originariamente construida con base en un modelo de prueba testimonial, continuamente sobrepasado por el desarrollo tecnológico que exige apreciar la lógica del juicio y los elementos dirigidos a componer su razonamiento de acuerdo con nuevos ángulos visuales”, reflexionó. Por lo anterior, manifestó que “es necesario darse cuenta que al presunto enriquecimiento en términos cognoscitivos para la reconstrucción del hecho le corresponde un aumento, a veces exponencial, del peso que los elementos pre-formados de modo computarizado terminan por ejercer en el juicio”. No obstante, reconoció que podría ser objeto de atención, por un lado, la decisión del ministerio público al optar entre el archivo y el ejercicio de la acción penal; y, por otro lado, la identificación de los criterios de prioridad para atender las denuncias.

Finalmente, afirmó que “el análisis de las capacidades de los sistemas basados en la IA no puede pasar por alto la exigencia de protección de los derechos individuales. En efecto, es necesario tener en cuenta que las particulares características técnicas de los instrumentos basados en tecnologías de IA pueden interferir con el núcleo de garantías del debido proceso”. Entre otros riesgos, puntualizó: la opacidad del funcionamiento de los modelos de IA y el uso de datos que surgen tras la realización de procedimientos algorítmicos.

Por último, indicó que “a la luz de la normativa europea, que rechaza la posibilidad de una delegación total de las funciones jurisdiccionales en favor de la máquina, el remedio idóneo para enfrentar los riesgos que pueden derivar del uso de sistemas de IA en el ámbito judicial, podría ser la previsión de una necesaria intervención humana, ex post, dirigida a reexaminar los output que sean el resultado de procedimientos automatizados”.

Por su parte, Andrés Rosler planteó que “Marafioti está especialmente preocupado por las tensiones entre la potencialidad aplicativa de los sistemas automáticos y los derechos fundamentales en los individuos. Y nos advierte que ‘el análisis de la potencialidad de los sistemas basados en la inteligencia artificial no puede descuidar la exigencia de protección de los derechos individuales’”. En ese sentido, consideró: “Me atrevería incluso a decir que la advertencia final de Marafioti acerca de una eventual dimensión ‘post-acusatoria’ o incluso ‘neo-inquisitiva’ del derecho penal debido a la influencia de la IA”.

A continuación, en base a su acuerdo con las afirmaciones de Marafioti, formuló una serie de cuestiones que denominó “teología jurídica” o “teología penal”. “Creo convergen todas en el hecho de que la inteligencia artificial, es decir el intento de reproducir mediante máquinas la capacidad cognitiva de los seres humanos, proviene del mismo tronco que el progresismo liberal que nos hace defender las garantías penales”, aseguró.