Inteligencia colectiva, inteligencia artificial y legitimidad democrática
Organizada por el Instituto Gioja y el Departamento de Filosofía del Derecho, el 27 de agosto se llevó a cabo la charla “Inteligencia colectiva, inteligencia artificial y legitimidad democrática”, a cargo de José Luis Martí (Universitat Pompeu Fabra).
El expositor presentó un artículo que se encuentra en proceso, elaborado en forma conjunta con Victòria Alsina y Beth Noveck, y apunta a problematizar la inteligencia artificial y la teoría democrática. “La inteligencia artificial, de forma especial, es una de esas nuevas tecnologías que están prometiendo una disrupción, una revolución en nuestras sociedades a todos los niveles. Y todos los niveles incluyen obviamente también el nivel político y el nivel de toma de decisiones y el nivel de gobernanza”, aseguró.
En primer lugar, retomó los planteos de Howard Rheingold, quien acuñó el concepto de comunidad virtual hacia fines de la década del ochenta. “Desde el principio ha tenido muy claro que estas nuevas tecnologías si sirven de algo es para ayudarnos a mejorar nuestras capacidades cognitivas y en especial lo que llamamos hoy en día inteligencia colectiva o lo que muchos de estos especialistas llaman inteligencia aumentada”, indicó. Y agregó que “los nuevos avances tecnológicos en los primeros años de una tecnología emergente, de un sistema comunicativo nuevo emergente, influye o pueden influir de manera decisiva en la forma en que esas tecnologías o esos medios de comunicación pueden terminar siendo usados o mal utilizados en las décadas siguientes”.
Luego explicó brevemente el mal uso de la inteligencia artificial en el caso de Cambridge Analytica en las elecciones de Trump. “Hay gente que está especulando que en algún momento no muy lejano estas herramientas van a ser capaces de predecir antes incluso de que nosotros hayamos formado un juicio racional o al menos consciente, nuestro voto en unas elecciones”, expresó y sumó que “sobre la base de ese análisis de big data que además viene cocinado con capacidad de aprendizaje, cada vez son más precisas, cada vez tienen menos errores. Van a ser capaces de hacer un perfil tan individualizado a ese individuo en concreto y llegarán a saber tanto o más sobre nosotros”.
En ese mismo sentido, afirmó que “la tecnología es neutra y se puede usar para el bien como para el mal pero lo que no tenemos es un esquema común de control y de verificación de los avances que se están desarrollando en el mundo. La tecnología es instrumental, esto me parece que es una obviedad, es el punto cero sobre el que parte cualquier argumento”. No obstante aclaró que es necesario preguntarse por los fines a los que apunta determinada tecnología. “Solo podemos evaluar la tecnología, en este caso la inteligencia artificial, desde el punto de vista de esos fines a los que esa tecnología debía supuestamente servir. Eso es algo complejísimo y que solo podemos hacer desde un trabajo interdisciplinario muy complicado”, destacó.
A continuación, sugirió que si bien existe literatura consolidada sobre la ética de inteligencia artificial naciente en buena medida ha ignorado las implicaciones políticas de este asunto. “Se han preocupado más de otras cuestiones de la inteligencia artificial más centradas en el ámbito de interacción individual, muchas de ellas entradas en ámbito de la privacidad y de libertad individual, que son muy importantes pero hay un campo distinto, de naturaleza distinta para recorrer que es el ámbito de la teoría política y la teoría democrática y el impacto que esa inteligencia artificial tiene sobre la teoría democrática tanto para bien como para mal y sobre todo de la mano de esto que llamamos inteligencia colectiva”, concluyó.