miércoles 4 de diciembre de 2024
spot_img

Contra el panóptico

En el año 2006 el Reino Unido vio naufragar la Ley de identidad que creaba el “DNI”, por iniciativa del laborismo, que además condicionaba a los ciudadanos para tramitar el pasaporte. Rápidamente, liberales y conservadores –heridos en su víscera más sensible– iniciaron una contraofensiva argumentando que esa era una medida que otorgaba al Estado demasiado poder. Se hicieron unos millones de documentos hasta que la presión obligó a la marcha atrás del proyecto.

En 2010, la entonces secretaria de Interior, Theresa May, dijo respecto de una iniciativa que anulaba el documento de identidad: “Este proyecto de ley es el primer paso de muchos que este gobierno está tomando para reducir el control del Estado sobre las personas decentes y respetuosas de la ley y devolverles el poder”.

El proyecto al que aludía May era no sólo la destrucción de los ID –que habían costado 50 euros a cada ciudadano– sino la base de datos que había comenzado a construir el Estado. Era el tercer proyecto de esta naturaleza que fracasaba en el Reino Unido.

Este botón de muestra sirve para entender la renovada preocupación de la UE para garantizar que los desarrollos de Inteligencia Artificial (IA) y los datos de la ciudadanía posibiliten la tentación de crear un Estado gendarme, al estilo de China.

Un grupo de expertos ha elaborado una lista de recomendaciones sobre cómo avanzar en el gobierno de la IA, que incluye una dura advertencia contra el uso de la misma para controlar y monitorear a los ciudadanos.

La tecnología de IA, que permite que las máquinas realicen tareas que antes requerían el pensamiento humano, está a punto de revolucionar la forma en que las personas viven, trabajan o van a la guerra, y ofrece grandes oportunidades para tratar mejor a los pacientes de cáncer y hacer que las cadenas de suministro globales sean más eficientes energéticamente. Pero también entraña riesgos significativos. Las tecnologías emergentes pueden, por ejemplo, ser abusadas por los regímenes autoritarios para establecer un panóptico digital que pasmaría al mismísimo Jeremy Bentham.

Los expertos instan a los formuladores de políticas a definir “líneas rojas” para las aplicaciones de IA de alto riesgo, y “reglas muy claras y estrictas para la vigilancia con fines de seguridad nacional y otros fines que se consideran de interés público o nacional”.

Incluso dentro de la UE, donde los ciudadanos están protegidos por estrictas leyes de privacidad, los gobiernos de Londres a Berlín han estado incursionando en la tecnología de reconocimiento facial, tal como China ha comenzado a aplicar en forma masiva.

En términos de reglas más amplias para la IA, la UE debería pensar dos veces antes de redactar una nueva legislación – aseguran los expertos – y primero revisar la regulación existente para que sea adecuada.

En ese campo, China ha estado utilizando IA de vanguardia para desarrollar un sistema de vigilancia de alta tecnología y acabar con la disidencia política, según informes de los medios de comunicación. Otros países, incluidas naciones europeas como Serbia, han llegado a acuerdos con las empresas chinas para introducir sus propios sistemas destinados a la supervisión de las personas.

Dentro de la UE, donde los ciudadanos están protegidos por estrictas leyes de privacidad, los gobiernos de Londres a Berlín han estado incursionando en la tecnología de reconocimiento facial.

“Necesitamos [regulación], estoy convencida de eso”, dijo la canciller alemana, Ángela Merkel, durante una conferencia de tecnología en Dresde la semana pasada, y agregó que “gran parte de eso debería ser la regulación europea”.

Los expertos advierten que el riesgo que representa la IA va más allá de que los gobiernos abusen de ellos para espiar a sus ciudadanos. En lo que parece ser una referencia al aparato de vigilancia de Beijing, pero sin nombrar a China, los expertos en inteligencia artificial de la UE escriben en sus recomendaciones que “los individuos no deben ser sujetos a una identificación injustificada… de perfiles a través de métodos de reconocimiento biométrico impulsados ??por IA”.

Los expertos advierten que el riesgo que representa la IA va más allá del uso incorrecto hagan los gobiernos para espiar a sus ciudadanos: la mayoría de los sistemas de IA, por ejemplo, funcionan mediante la búsqueda de correlaciones en grandes masas de datos y son propensos a discriminar a las minorías. Esto ha llevado a que las herramientas de reclutamiento impulsadas por IA discriminen a las mujeres.

Los expertos en inteligencia artificial de la UE, la mayoría de los cuales pertenecen al mundo corporativo y al mundo académico, acuerdan en que la IA necesita supervisión, pero la regulación debe ser un principio rector amplio y no reglas específicas que detallan lo que las empresas y los investigadores pueden y no pueden hacer.

Los especialistas también se oponen claramente a una sugerencia controvertida de que los robots deban considerarse legalmente “personas” para hacerlos responsables de sus acciones, instando a los formuladores de políticas a que se abstengan de establecer una personería jurídica para los sistemas de inteligencia artificial o robots.

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Lucas Luchilo

Algunas cosas que sabemos sobre los estudiantes internacionales (y por qué la propuesta del gobierno es ilegal e inconveniente)

Alejandro J. Lomuto

El cesaropapismo del siglo XXI

Fernando Pedrosa

Latinoamérica, después de Biden, a la espera de Trump