En el año 2016 Oxford Dictionaries eligió el término posverdad (post-truth en inglés) como palabra del año (Montoya, 2019), algo que muestra la gran relevancia que el concepto alcanzó y aún sigue teniendo. De hecho, algunos autores denominan a estos convulsos años en los que estamos inmersos, caracterizados por una interconexión global de los ciudadanos y por la superabundancia de información, como la era de la posverdad.
En el proscenio de la posverdad, donde los hechos han pasado a estar en un segundo plano a la hora de conformar la opinión pública, dejando paso a las emociones, los sentimientos y las creencias personales, la inteligencia artificial (IA) juega un papel clave.
La IA es una rama de la informática que se ocupa del desarrollo de sistemas que pretenden emular las funciones de la mente humana, entre las que destaca el aprendizaje, el razonamiento lógico y la toma de decisiones. Un sistema de IA es pues, un software que mediante algoritmos intenta emular alguna capacidad intelectual humana. Es importante destacar que se trata de una mera emulación: no es que el sistema tenga capacidades intelectuales humanas, como se da a entender habitualmente en las películas de ciencia ficción, sino que persigue imitarlas (González, 2021: pág. 257).
En cuanto a la posverdad, la RAE la define como una «distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales». De esta definición destacamos dos ideas fundamentales: en primer lugar, que la distorsión de la realidad debe ser deliberada y, por otra parte, que el fin mediato es influir en la opinión pública, llevándose a cabo dicho objetivo a través de una manipulación de creencias y emociones. En los diccionarios anglosajones post-truth es aquella circunstancia o situación en la que las emociones y creencias personales influyen más a la hora de conformar la opinión pública que los propios hechos (Navarro, 2022: pág. 148).
Aunque existan algunas diferencias de matiz entre las definiciones española y anglosajona, en ambos casos el foco se centra en la relevancia de las creencias y las emociones a la hora de configurar el escenario de posverdad.
Por otra parte, si bien suele identificarse posverdad con fake news, coincidimos con Alberto Navarro en que se tratan de dos conceptos diferentes, existiendo más bien entre ellos una relación de género/especie, esto es: el término posverdad engloba a las fake news pero es más amplio, y podríamos afirmar que las fake news son el combustible que alimenta la posverdad (Navarro, 2022: pág. 148).
La IA y la posverdad
Desde hace varias décadas se ha venido produciendo un desarrollo espectacular de la IA, que ha provocado su expansión a la práctica totalidad de las actividades humanas, y su aplicación a la generación, procesado y difusión de la información no podía ser una excepción. Pero dentro de dicho ámbito y en relación con la posverdad, podemos diferenciar dos grandes grupos de sistemas: por un lado, los relacionados con la generación y propagación de los bulos y las noticias falsas y, por otro, aquellos cuyo objetivo es combatirlas.
Así, en la era de la posverdad, la IA se ha convertido en un nuevo dios Jano que con una de sus caras facilita la creación y difusión de fake news y con la otra se convierte en el más eficaz instrumento para refutarlas.
Existen diversas aplicaciones de la IA relacionadas con la generación, procesado y difusión de las noticias falsas. Vamos a comentar algunos ejemplos. Como ha indicado Katharine Viner, los algoritmos que seleccionan las noticias en la web están diseñados para presentarnos lo que ellos piensan que queremos ver (Viner, 2016), y eso facilita que nos lleguen noticas falsas, y además cada vez es más difícil que encontremos información que nos desafíe, que sea contraria a nuestras creencias y opiniones (Montoya, 2019).
Estamos acostumbrados a la publicidad a la carta, que nos bombardea con anuncios de aquello en lo que estamos interesados (por ejemplo, por haberlo buscado recientemente en Google), y esto mismo ocurre ya con las noticias que la web nos presenta (Montoya, 2019).
Otro claro ejemplo en el que la IA alimenta el escenario de posverdad son los videos deepfakes, aquellos en los que partiendo de una grabación audiovisual ya existente —o tomada en tiempo real— y utilizando IA del tipo deep learning, se sustituyen la imagen y la voz de uno o varios de sus protagonistas por las de otras personas, de forma que estas últimas aparenten protagonizarlo cuando realmente nunca han intervenido en la grabación (González, 2022: pág. 595).
Y la IA también juega un papel esencial en la viralización de las fake news, por ejemplo, mediante la creación de perfiles falsos en las redes sociales a través de los cuales se reenvían masivamente las noticias falsas.
La IA también puede utilizarse en la detección de las fake news, bien para eliminarlas o bien para limitar su difusión, y si ninguno de estos objetivos fuera posible, al menos etiquetarlas para informar al público de su falsedad. De hecho, la mayor parte del software utilizado en la detección de bulos y noticias falsas contiene IA en mayor o menor medida. Como ejemplo, podemos citar las aplicaciones siguientes: Fake News Detector, Lupa, Les Décodeurs (Flores, 2019: págs. 207-208).
También es clave la IA en la detección de los videos deepfakes, especialmente de aquellos más elaborados, pues con la evolución tecnológica ha llegado a ser prácticamente imposible que un humano pueda detectar un video de buena calidad de este tipo sin ayuda tecnológica.
Consecuencias
Con la proliferación de la desinformación, los bulos y las noticias falsas que conforman la posverdad, se ponen en riesgo los derechos fundamentales de los ciudadanos, pero también, y lo que es mucho más importante, las principales libertades públicas, que son las piedras angulares que sustentan los Estados sociales y democráticos de derecho, entre ellos el español.
Pero cualquier mecanismo ideado para combatir las fake news puede derivar en censura privada o incluso en autocensura, nuevos tipos de censuras que empiezan a tener un papel preponderante en la sociedad actual. Es pues muy importante que la lucha contra las noticias falsas siga los principios de proporcionalidad, legalidad e imparcialidad, y que incorpore mecanismos que permitan minimizar los riesgos de censura, pues en caso contrario se verán vulneradas las libertades de expresión y de información, y se pondrá en riesgo la misma democracia.
Nuestro mundo se caracteriza por una fuerte implantación tecnológica y por un acceso generalizado y masivo a una información cada vasta e inmanejable, circunstancias que han permitido el desarrollo de la posverdad.
La IA, una de las tecnologías actuales más disruptivas, puede ser utilizada tanto para alimentar la posverdad como para combatirla. Es pues un arma de doble filo, aunque esencialmente neutra: su bondad o maldad dependerá solo de cómo la utilicemos.
Si continuamos alimentando la posverdad, cada vez será más improbable que encontremos información y noticias que nos desafíen, salvo que nos pongamos a buscarlas expresamente, y esto socavará nuestro pensamiento crítico y nuestra capacidad para cuestionar la información, clave del avance científico, pues como bien afirmó el maestro Carl Sagan: «En la ciencia la única verdad sagrada es que no existen verdades sagradas y los argumentos de autoridad carecen de valor» (Sagan, 1980: págs. 332-333).
Por todo ello, hemos de limitar las aplicaciones de la IA que alimenten la posverdad, pero también ser especialmente cuidadosos al utilizarla para combatir la desinformación y las fake news, pues en caso contrario pueden aparecer una censura privada o una autocensura que pondrán en riesgo las libertades de expresión y de información, y con ello las bases de la democracia.
Bibliografía
Flores, J. M. (2019): «Inteligencia artificial y periodismo: diluyendo el impacto de la desinformación y las noticias falsas a través de los bots», en Doxa Comunicación. Revista interdisciplinar de estudios de comunicación y Ciencias Sociales, n.º 29, 2019, págs. 197-212.
González, J. L. (2022): «Videos deepfakes y sus problemas jurídicos» en coord. por María Jesús Blanco Sánchez; Agustín Madrid Parra (dir.), Lucía Alvarado Herrera (dir.), Mercedes Sánchez Ruiz (aut.). Derecho digital y nuevas tecnologías. Pamplona, Thomson Reuters Aranzadi, págs. 593-614.
González, J. L. (2021): «Inteligencia artificial y derechos de autor» en FODERTICS 9.0: estudios sobre tecnologías disruptivas y justicia. Coord. por Irene González Pulido; Federico Bueno de Mata (dir.), Lorenzo Mateo Bujosa Vadell (pr.). Albolote (Granada), Editorial Comares, 2021, págs. 257-269.
Montoya, M. (2019): «La era de la posverdad, la posveracidad y la charlatanería» en Sumando Historias. Disponible en: http://www.sumandohistorias.com/a-fondo/posverdad-posveracidad-charlataneria/
Navarro, C. A. (2022): «Posverdad, medios de comunicación y poder. Un problema para las humanidades» en Comunicación y hombre. Revista interdisciplinar de ciencias de la comunicación y humanidades, nº. 18, 2022, págs. 147-162.
Sagan, C. (1980): Cosmos. Barcelona, RBA Editores.
Viner, K. (2016): «How technology disrupted the truth» en The Guardian, 12/07/2016. Disponible en: https://www.theguardian.com/media/2016/jul/12/how-technology-disrupted-the-truth
Este artículo forma parte de la revista Telos 122 «Posverdad» que se puede descargar gratuitamente aquí.