Se avecina la guerra de los algoritmos, si es que no está desatada ya. En el Instituto Tecnológico de Massachusets llevan tiempo analizando testimonios de abogados y trabajadores sociales que enfrentan programas de inteligencia artificial para asistir a personas necesitadas de protección. El balance de su aplicación no es optimista. Y sin embargo se está incorporando para mejorar la prestación del servicio al ciudadano.
En general tendemos a pensar que la inteligencia artificial es algo del futuro, que no nos afecta, o que se reduce a ser el programa detrás de mis recomendaciones de música y películas o series. Y mientras estamos en babia ya ha sido implantada parcialmente, actúa en nuestras relaciones con la Administración Pública, con las fuerzas y cuerpos de seguridad del Estado, además de con las aplicaciones que usamos a diario.
Amenaza o ventaja
Max Tegmark, profesor del MIT, comparaba, en un encuentro con la periodista Marta García Aller y dentro del Foro Telos 2020, la inteligencia artificial con las armas nucleares. Es un peligro, porque nadie nos pagará por nuestro trabajo si una máquina igual a nosotros lo hace más barato. Si además esas máquinas son propiedad de una sola persona, todos acabaremos muriendo de hambre. De momento eso es tan solo un escenario, y aunque Tegmark cree que ha comenzado a concretarse, puede corregirse para que la inteligencia artificial sea lo mejor que le ha pasado a la humanidad.
En su columna del NYT, Jorge Carrión analizaba el libro El futuro va más rápido de lo que crees, de Peter Diamandis y Steven Kotler. Los autores plantean un horizonte idílico donde los avances tecnológicos expanden la democracia y la conciencia medioambiental, generando recursos que permitirán implantar la renta básica universal. Carrión contrapone a eso la realidad del presente, donde cada vez más personas son incapaces de adoptar los avances tecnológicos en su vida, quedándose atrás. «La velocidad de la tecnología atropella nuestros cerebros», concluye.
Los problemas ya detectados en Europa
Algorithm Watch es una plataforma dedicada a la supervisión de programas estatales que implican la inteligencia artificial, formada por expertos y periodistas. En su informe anual Automating Society Report edición 2020 analizaron casos de implantación de inteligencia artificial en dieciséis países europeos. Poniendo el foco en que en solo un año la automatización de la sociedad ha avanzado de forma extraordinaria.
1. El reconocimiento facial
La covid-19 ha acelerado la implantación del reconocimiento facial, y aunque inicialmente las mascarillas incrementaron su tasa de error, ese defecto ya está, meses después, prácticamente corregido. Avanzamos a toda velocidad, con Eslovenia en cabeza, que ya ha aplicado esta tecnología al uso policial. Aprovechando las leyes promulgadas para combatir la covid, ha legalizado una práctica que ya venían utilizando: recopilar imágenes de las redes sociales a fin de identificar individuos en las masas de manifestantes en protestas contra el gobierno. La legislación permite además a la policía rastrear los contactos de esos individuos, analizando sus contactos en las redes.
Dentro del sector privado destaca un programa piloto que se está implantando en las sucursales de los bancos de Polonia. Los empleados son recompensados con una retribución extra a fin de mes en función de cuánto sonrían a sus clientes.
La legislación de la Unión Europea, mientras tanto, va con retraso. A principios de 2020 se manejaba en Bruselas la idea de prohibir el reconocimiento facial en espacios públicos, debate aplazado por la pandemia. Doce organizaciones de activistas urgen a hacerlo ya por la amenaza que supone a la privacidad, citando el caso de Como, Italia, donde se implantó de forma masiva antes de que la Agencia de Protección de Datos italiana prohibiera su uso porque no existe legislación que lo regule.
2. Programas cancelados por discriminación
En el informe de Algorithm Wathc hay casos que llaman la atención porque se ha detectado que los algoritmos que rigen las inteligencias artificiales contienen prejuicios y sesgos hacia determinados grupos de población.
En Holanda SyRI se implantó para que Hacienda detectara posibles defraudadores entre los beneficiarios de ayudas o desgravaciones (becas, IRPF, vivienda…). Rastreaba datos fiscales del total de habitantes residente en un distrito, pero su aplicación comenzó únicamente sobre vecindarios pobres. Se le acusó de criminalizar la pobreza. Finalmente el Tribunal Europeo de Derechos Humanos ordenó cancelar el programa por invadir la privacidad individual y familiar, que prevalece como derecho frente a la lucha contra el fraude.
Precogs, predecir cuándo va a cometerse un crimen
La película Minority Report exploró la idea original del relato de Phillip K. Dick El informe de la minoría, donde unos mutantes tienen el don de ver el futuro. Con ellos se organiza una unidad policial de precrimen. Esos mutantes ya existen, en forma de algoritmo, uno de ellos bajo la denominación PRECOBS (Pre-Crime Observation System). Está siendo empleado por la policía suiza de forma experimental, orientado al robo en domicilios, y destinando más patrullas a las áreas donde supuestamente se cometerán delitos. Sus resultados son por el momento bastante pobres, y en realidad tampoco existen investigaciones científicas que evalúen si empleando inteligencia artificial puede predecirse con exactitud un comportamiento (no solo una tendencia) según el estudio de un grupo.
Eso no ha sido un obstáculo para el sheriff de Pasco, Florida, Estados Unidos, que aplica un algoritmo a personas con antecedentes penales para arrestarlos antes de que puedan reincidir. El abuso no ha tardado en producirse, con detenciones a padres por el supuesto crimen de sus hijos, registros sin orden judicial, arrestos indiscriminados y hasta la demanda del gobernador del estado sobre su inconstitucionalidad. Además de la discriminación de minorías raciales y discapacitados.
Reino Unido tampoco se ha quedado atrás. Su ley de vigilancia fue declarada ilegal por la UE, pero cabe suponer que el Brexit disuadió a su gobierno de retirarla. De hecho en los dos últimos años ha estado implantando de forma oculta un programa que rastrea y analiza la navegación individual en internet de cada ciudadano del país. Aunque se mantiene la opacidad sobre las tecnologías que emplea, ha trascendido que se recopilan metadatos, uno de los recursos utilizador para que las inteligencias artificiales deduzcan conclusiones de forma automática. A partir por tanto de los intereses personales, creencias políticas o información sobre salud.
Amenazas y oportunidades en España
1. Cuidado con las palabras que usas en tus denuncias
En 2018 la Policía Nacional puso en marcha VeriPol, que definieron como «primera herramienta de este tipo en el mundo». Aquí la inteligencia artificial consiste en procesamiento del lenguaje natural para sacar conclusiones, analizando las denuncias presentadas para evaluar si son falsas. Su fiabilidad es del 91 %. El problema es que se alimentó con denuncias procedentes de Andalucía, por lo que la forma de usar el español (modismos, expresiones, localismos) de otras comunidades autónomas no está contemplada. Los expertos en ética se preguntan además qué pasa con los errores, denuncias falsas no detectadas que fueron tramitadas contra infractores inocentes.
2. El robot inspector del Ministerio de Trabajo
Inspección de Trabajo ha puesto en marcha un algoritmo que extiende el acta de infracción a una empresa sin que intervenga un funcionario humano. Aquí la inteligencia artificial hace un análisis masivo de datos e identifica patrones de fraude, como pudiera ser el despido reiterado de un trabajador el viernes, que vuelve a ser contratado el lunes.
La CEOE advierte de una posible avalancha de denuncias masivas. También los funcionarios han amenazado elevar un informe al Consejo de Estado porque esta automatización puede «romper con los principios de legalidad, seguridad jurídica, proporcionalidad e imparcialidad de la inspección». La petición de ambos colectivos coincide: saber cómo opera la inteligencia artificial. El problema es que si esa información se hace pública el algoritmo resultaría inútil, pues los defraudadores sabrían cómo esquivarlo. Una vez más falta legislación para una realidad que avanza muy rápido.
3. Siri, ¿me estás escuchando?
El CNI español ha publicado un informe de ciento veintitrés páginas sobre los servicios de Apple, encaminado a revelar al usuario amenazas y vulnerabilidades de los mismos. Una de sus recomendaciones es evitar el uso de Siri en la medida de los posible porque las grabaciones de las preguntas han sido entregadas a menudo a terceras personas (p. 91), subcontratas de la compañía.
En 2019 hubo evidencias de que se escucharon conversaciones sobre compra de drogas a camellos, consultas médicas y encuentros sexuales. Lo mismo ocurrió con datos sensibles de Alexia, el servicio equivalente de Amazon, que al parecer puede activarse hasta cien veces al día sin que le sea solicitado. En este caso los empleados han escuchado datos bancarios, y una posible agresión sexual. Ambas empresas aseguraron que tan solo se cedía el uno por ciento de las grabaciones para mejorar el servicio, y en ningún caso sabían los empleados los datos del usuario. Eran por tanto datos anonimizados.
Observatorios éticos de la inteligencia artificial en nuestro país y en Europa
OdiseIA es una plataforma nacional, donde empresas, universidades, instituciones y personas físicas debaten sobre el buen uso de la inteligencia artificial. Su interés es supervisar la ética en la aplicación de esta tecnología, y detectar sesgos, así como difundir información. Supone una réplica de organismos europeos similares, como el IEAI, Instituto para la Ética en la Inteligencia Artificial de Múnich, la European Network y su plataforma de difusión ai4eu, entre otros. El interés es universal, y la carrera de implantación y supervisión ha comenzado.
En EEUU, la IA ya es parte de la nueva guerra fría. El presidente estadounidense Joe Biden acaba de pedir el apoyo para desarrollar de forma urgente armas basadas en esta tecnología, con las que luchar contra los ataques (cibernéticos) de Rusia y China. Es una reacción a este informe de sus especialistas, y a una noticia recurrente en la prensa internacional: tanto Rusia como China están a punto de sobrepasar en desarrollo de inteligencia artificial a EE. UU. y su principal socio, la UE.
En España un grupo de setenta expertos han pedido reunirse con los responsables del departamento de Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, detallando en una carta donde se pide la moratoria en la implantación del reconocimiento facial. Ya se está probando en el aeropuerto de Madrid-Barajas, y Renfe tiene un proyecto piloto para detectar quién se cuela y realizar un perfil de los viajeros.
Un horizonte a tan solo diez años
Los adultos de 1981 no hubieran imaginado que en diez años sería normal tener un PC en su puesto de trabajo. Los de 1991 que internet iba a ser cotidiano y masivo. Los de 2001 que los teléfonos móviles acabarían teniendo solo pantalla táctil y convertidos en un miniordenador. Posiblemente nosotros no imaginamos aún que dentro de una década la inteligencia artificial estará tan presente en nuestras vidas como el móvil. Tenemos diez años de arduo trabajo por delante para desencadenar la utopía o aceptar la distopía. Quizá a estas alturas nos conformemos incluso con un punto medio.
Pingback: Futuro Imperfecto #69: Inteligencia artificial, distópica o utópica – Jot Down Cultural Magazine – México Posible
Está claro que el futuro ha venido para quedarse, todo esto parece de pelicula la verdad.
El articulo está muy bien, pero si no está fechado, parte del contexto y del contenido se pierde. He llegado desde un buscador, y calculo que la fecha de publicación será entre despues del Covid, y hoy. Pero eso es una horquilla de 3 años ( y creciendo). Ademas, con el paso del tiempo, el texto «dentro de 10 años» tendrá un significado diferente al de leerlo hoy.