Derecho penal e inteligencia artificial
El pasado 6 de septiembre en el Aula 359 de Posgrado se llevó adelante la actividad "Derecho penal e inteligencia artificial",en cuyo marco disertaron los profesores Carlos María Romeo Casabona (Universidad del País Vasco) y Andrea Perin (Universidad Católica del Norte, Chile).
En primer lugar, Carlos María Romeo Casabona expuso sobre la utilización de programas de inteligencia artificial como herramienta de trabajo para los jueces a la hora de determinar la predicción delictiva, es decir, la probabilidad, la peligrosidad criminal. “Es una materia complicada porque normalmente se asocia con la aplicación de medidas de seguridad como una consecuencia jurídico penal junto con las penas y otras menos relevantes, ya no en el proceso penal, sino en el período de ejecución de la pena del derecho penitenciario cuando se trata de mejorar la condición penitenciaria”, indicó.
En ese sentido, manifestó que “los sistemas de inteligencia artificial ya se están utilizando por los tribunales de justicia, por lo que no estamos hablando de un futuro futurible, sino de una realidad que afortunadamente no se ha introducido en la mayor parte de los tribunales de justicia”.
Con respecto a los procedimientos actuariales, advirtió la confusión que puede suscitar la idea de que los jueces deban proceder de la manera más objetiva posible, el hecho de querer evitar su subjetividad, evitar que se pueda proyectar en la valoración del comportamiento. “Se confunde con otra cosa que tiene que seguir siendo fundamentalmente subjetiva que es el pronóstico de comportamiento del delincuente. El elemento objetivo que sí persiste, y es fundamental, es que haya cometido previamente un delito”, aseguró. Y agregó que “por razones de garantías y de seguridad jurídica, el resto es valorar esa personalidad y si el juez puede inferir con ayuda de los especialistas qué riesgo hay, qué peligrosidad criminal existe”.
El sistema actuarial se ha basado fundamentalmente en la elaboración a partir de tablas en las cuales hay una serie de puntos que deben completarse a través de preguntas que se le hacen al procesado o ya condenado según la situación en la que se encuentre y la que debe responder a través de la información que viene expuesta o que se deduce del sumario, y en su caso, de la sentencia en principio condenatoria. “Este sistema encuadra en prototipos y no se fija tanto en si el delincuente se encaja en alguno de esos grupos. Entonces, esto es quizás objetivar, despersonalizar, automatizar la decisión del juez”, concluyó.
Para finalizar, expresó que “en este momento de conocimiento técnico, un sistema que se llame inteligente no debe introducirse en el proceso, por mucho que digan que es muy profesional, muy seguro, creo que no lo es. (…) La libre apreciación de prueba tiene que mantenerse y no incurrir en la rutina o la ciega a sistemas tecnológicos”, señaló.
Por su parte, Andrea Perin se dedicó a comentar su trabajo sobre la responsabilidad médica ante el fenómeno de estandarización y automatización de la medicina introductiva. “El paradigma de la medicina basado en la evidencia ha favorecido a nivel comparado una estandarización cada vez mayor de las prácticas clínicas en todo el mundo”, expresó.
Asimismo, manifestó que “la cuestión que nos planteamos nosotros como penalistas es precisamente bajo qué condiciones una lex artis estandarizada puede influir en la definición de una expectativa normativa del cuidado debido cuyo incumplimiento puede suponer la responsabilidad jurídico-penal en el caso del médico en hipótesis de evento adverso”. Y aclaró que los interrogantes pasan por “de qué manera y bajo cuáles condiciones un estándar de carácter médico-científico define el marco y los límites de la actuación adecuada y lícita del médico ante el derecho, en qué medida un contenido de carácter tecno-científico otorga contenido normativo al deber de cuidado”.