fbpx

INTELIGENCIA ARTIFICIAL Y DEMOCRACIA

*En colaboración con el Dr. Matías Rodríguez abogado especializado
en gestión de telecomunicaciones y en derecho de alta tecnología.

Hoy se convive diariamente con decisiones adoptadas en última instancia por algoritmos informáticos, incluso en disyuntivas que presentan evidente dimensión moral. En particular, los algoritmos evolutivos (Inteligencia Artificial IA) están revolucionando todas las actividades humanas. No hace falta imaginar máquinas temibles como Terminator o HAL, basta reparar en el crédito que solicitamos; el precio individual por un viaje en Uber, hospedaje, pasajes o bienes adquiridos en Internet; en la música, películas y libros que consumimos; en el funcionamiento del auto, la regulación de la en los modernos edificios, el proceso de ingreso a un país o lugar de trabajo, el precio de los seguros, la seguridad en los vuelos, en la casi totalidad de lo que hacemos con nuestro celular, y en el ejercicio de numerosas formas de delincuencia. Todo esto mediado o decidido por algoritmos.

Jack Balkin, profesor de Derecho Constitucional de la Universidad de Yale, sostiene que el Big Data, las redes sociales, la llamada “economía compartida” y la inteligencia artificial, no son más que aspectos parciales de lo que él denomina “sociedad algorítmica”, definida como aquella sociedad organizada en torno a decisiones sociales y económicas sugeridas, adoptadas o ejecutadas por algoritmos.

En ese sentido, un elemento que debemos tomar en consideración es la lista de preocupaciones que, sobre de ello, la sociedad ha manifestado y que, entre otros aspectos, afectan la democracia como la conocíamos. Por ejemplo, se ha debatido sobre el hecho de que una “superinteligencia” supere a la especie humana o, incluso, la extermine (Stephen Hawking y Elon Musk); o el temor de que los sistemas artificiales autónomos dejen sin empleo a amplias mayorías. Pero los desafíos van más allá:

  1. Uso justo. Se refiere a la eventual capacidad de los algoritmos para reflejar los valores humanos. El tema abarca diversas formas de aplicación algorítmica inequitativa o ilegítima llamada “discriminación algorítmica”. Las denuncias públicas sobre sesgos discriminatorios han sido numerosas. Por ejemplo, en un comentado juicio de 2016, un detenido de Wisconsin demandó al Estado porque éste usó un software de evaluación de riesgo (“COMPAS”) para sentenciarlo a seis años de prisión. Alegó que ese uso violaba su derecho al debido proceso, pues al no poder examinar el código fuente se veía impedido de impugnar la objetividad de dicha prueba. También el software de predicción criminal “PredPol” usado por la policía estadounidense e incluso por la uruguaya desde 2015, ha tenido numerosas denuncias por discriminación racial y económica. Los algoritmos de publicidad de Google fueron reiteradamente acusados de mostrar los avisos de empleo bien pagos solamente a usuarios varones, en tanto los del motor de búsqueda asociaban imágenes de varones blancos adultos a los términos “gerente” o “director”. Algoritmos de reconocimiento facial de Amazon, al cotejar una base de datos policial, confundieron a 28 parlamentarios estadounidenses -particularmente a los de raza negra- con delincuentes. También se han identificado evidencias de discriminación racial en algoritmos de análisis de crédito y de seguros de salud.
  2. Transparencia y rendición de cuentas. El Parlamento Europeo en su Reporte “Un Marco de Gobernanza para la Rendición de Cuentas y Transparencia algorítmica” identifica como uno de los puntos clave: hacer accesibles los procesos por los cuales el algoritmo arriba a una determinada conclusión, establece que cuando las decisiones algorítmicas resulten significativas para individuos, organizaciones o la sociedad en su conjunto, la forma en que alcanzan sus conclusiones no debe resultar opaca para los afectados. Se busca que estos sistemas resulten explicables, auditables y, en general, adecuadamente transparentes para proteger los derechos de los ciudadanos afectados.
  3. Uso de la fuerza. La siguiente preocupación se refiere a su utilización en dispositivos militares, policiales o de seguridad que utilicen armamento o fuerza física. Abarca temas desde la definición de “intervención humana significativa” y el rango de decisión en que debe requerirse, hasta la legitimidad de delegar en algoritmos evolutivos las decisiones de herir o matar y la identificación de “blancos legítimos”. Los especialistas disciernen matices entre acciones defensivas y ofensivas, y discrepan sobre la aplicabilidad de las normas internacionales en conflicto armado y los principios de Derecho Internacional Humanitario.
  4. El concepto de “vigilancia algorítmica” ha conquistado un lugar independiente de otras amenazas a la privacidad tanto por su sujeto activo (las agencias de seguridad estatales), como por la proactividad de éstas en identificación de riesgos y amenazas presuntamente ocultas. Esta actividad tiene implicaciones claras respecto a la protección de la libertad de expresión y la prevención de la discriminación. Un creciente número de países se encuentra desplegando herramientas algorítmicas para monitorear, seguir y vigilar a sus ciudadanos. Steven Feldstein elaboró recientemente para el Fondo Carnegie para la Paz Internacional un “Índice Global de Vigilancia mediante Inteligencia Artificial” que analiza la situación de 176 países, sin distinguir entre usos legítimos o ilegítimos, concluyendo que al menos 75 países están activamente usando IA para propósitos de vigilancia. Los usos más frecuentes se asocian a sistemas de reconocimiento facial (64 países), plataformas de seguridad para ciudades inteligentes (56 países) y sistemas de “policía predictiva” (52 países).

En conclusión, existe una clara necesidad de analizar a profundidad el impacto y los riesgos que conlleva la aplicación de la IA. Los avances tecnológicos deberían beneficiar a la mayor cantidad de ciudadanos y fortalecer las instituciones democráticas, la gobernabilidad y, sobre todo, mejorando la eficiencia y la transparencia de la gestión pública. América Latina y el Caribe deberá trabajar en la elaboración de un marco jurídico adecuado que permita regular la codificación de algoritmos para mitigar el riesgo de profundización o generación de nuevas “grietas sociales” con la consecuente erosión de las instituciones democráticas.

En este contexto, se vuelve imperativa la generación de una “framework” legal, un acuerdo e incluso una organización mundial que regule la codificación de la IA.