Artículo actualizado el 30/09/24 a las 18:00. Ver nota al pie.
El pasado jueves 26 de septiembre, en el marco de las Conversaciones de Formentor, se celebró un «Coloquio de revistas, suplementos y monográficos, literarios y culturales» que pretendía girar en torno al tema «El dilema postmoderno: ¿lectores o usuarios?», algo que no llegó a suceder. En este evento se reunieron responsables de medios y suplementos culturales para analizar y discutir la complejidad de los medios y suplementos culturales. A raíz de la intervención de Isaac Marcet de Playground Magazine el debate se centró en la inteligencia artificial dividiendo a los asistentes entre apocalípticos e integrados. Con una mayoría de apocalípticos, como era de esperar, la inteligencia artificial se presentó como un agente que amenaza la esencia de la creación literaria y cultural al que hay que desterrar de las redacciones. Este rechazo, previsible en ciertos sectores tradicionales, reveló una contradicción evidente que merece ser analizada.
Uno de los momentos más tensos del coloquio surgió cuando se discutía si los medios culturales debían combinar cultura con entretenimiento. La conversación se encendió después de que Basilio Baltasar criticara el espacio que las secciones de cultura dedican a TS (no confundir con TS Eliot). Esta crítica fue recibida como un ataque por parte de Joana Bonet de La Vanguardia y Gonzalo Suárez de El Mundo, quienes defendieron la relevancia cultural y sociológica de Swift. La discusión llevó a recordar a Jesús Calero del ABC una controversia similar de años anteriores, en la que Dan Brown había sido protagonista. Alguien, en tono de broma, mencionó que «Taylor Swift es la Dan Brown de la música». En ese preciso momento, decidí enviar un mensaje a Hipólito Ledesma, miembro del equipo de redacción de Jot Down, para que publicara un artículo titulado «Taylor Swift es el Dan Brown de la música» generado con IA. Lo sorprendente fue que el artículo se confeccionó y publicó en menos de un minuto, dejando atónitos a los asistentes que pudieron verlo en la gran pantalla que había en la sala. La sorpresa se incrementó al leerlo: un texto que desplegaba un análisis crítico, mordaz y perfectamente documentado, escrito por una IA. La audiencia quedó asombrada ante la potencia de la inteligencia artificial y su capacidad para abordar temas complejos con agudeza.
La reacción posterior resultó, cuanto menos, intrigante. A pesar de la aceptable calidad del artículo y de la impactante demostración en tiempo real de lo que la tecnología es capaz de alcanzar, los medios que cubrieron el evento prefirieron ignorar este detalle en sus crónicas. Aquí radica la gran paradoja. Los mismos medios culturales que lanzan diatribas contra el uso de la IA son, en su labor cotidiana, fervientes devotos de sus herramientas para documentarse, transcribir entrevistas y, lo más importante, ajustar sus contenidos a las caprichosas exigencias del posicionamiento web. La verdad es que la mayoría de editores y periodistas se hallan rendidos al todopoderoso Google, obedeciendo las leyes del algoritmo en su desesperada búsqueda por captar la volátil atención del lector. Se percibe, sin duda, una disonancia cognitiva: mientras los contenidos pretenden dirigirse a nobles «lectores», la realidad de su publicación los reduce, inevitablemente, a la categoría de simples «usuarios» en esta danza infernal dictada por los algoritmos. El resultado es una repetición extenuante: temas y estructuras replicados hasta la saciedad, en un intento vano por generar tráfico. La homogeneidad se impone y la diversidad discursiva queda, una vez más, sacrificada en el altar de los motores de búsqueda.
La contradicción es clara: mientras se defienden conceptos como «autenticidad» y «singularidad» del contenido cultural, los mismos medios abrazan la tecnología cuando les resulta útil para alcanzar sus objetivos comerciales. Criticar la IA en nombre de la esencia cultural mientras se aplican fórmulas preestablecidas para satisfacer los algoritmos de posicionamiento es una paradoja. El verdadero dilema postmoderno no parece ser «lectores o usuarios», sino «principios o conveniencia». El artículo de Jot Down sobre Taylor Swift, escrito por una IA, demostró que las tecnologías actuales no solo pueden documentarse y estructurar argumentos coherentes, sino también desplegar un sentido crítico que desafía las expectativas. La IA, con las limitaciones propias de una máquina, está imitando con éxito los patrones del discurso humano. Mientras tanto, los medios, atados a las métricas y tendencias, se deslizan hacia una uniformidad que empobrece el panorama cultural. En este punto tengo que destacar la aproximación al asunto de Josep Massot, el enfant terrible y contrapunto en este tipo de eventos, que confesó utilizar la IA para descartar en sus artículos toda la información que esta le proporciona y así desarrollar textos novedosos y originales. ¡Ese es el espíritu!
La cuestión no versa, por lo tanto, que la IA pueda reemplazar al escritor o al periodista, sino por qué los medios culturales parecen dispuestos a sacrificar la calidad y la diversidad de sus contenidos para satisfacer los algoritmos. La inteligencia artificial no es el enemigo, si no un reflejo de las carencias y contradicciones del periodismo cultural. Criticarla mientras se sucumbe a las reglas del tráfico web demuestra que el problema no reside en las máquinas, sino en las decisiones humanas que les han cedido el control de la producción cultural.
Los periodistas no deben temer ser sustituidos por la inteligencia artificial. La IA podrá recitar datos con precisión matemática, podrá incluso redactar crónicas con una corrección envidiable, pero hay algo que aún no puede emular: el inconfundible toque de una mente brillante y la calidez de una voz auténtica. Es la marca personal de cada periodista lo que cautiva a los lectores, lo que les incita a volver, a buscar esa opinión o análisis que solo un autor específico puede ofrecer. En un mundo abarrotado de información, lo que realmente valoramos es el carácter, el ingenio y la perspicacia que un profesional experimentado infunde en su escritura. Así como uno busca la sutileza de un buen vino o la complejidad de una obra de arte, el lector anhela el estilo único de un periodista que logra convertir los hechos en una narrativa significativa.
Ahora bien, ¿debemos considerar la inteligencia artificial como una herejía en este sacrosanto templo del periodismo? ¡En absoluto! Tal consideración es tan obtusa como desdeñar el uso del teléfono en los albores de la comunicación. No creo que la inteligencia artificial sea un enemigo que amenaza nuestra profesión, sino una herramienta que nos permite ser más auténticos y creativos. Rechazar la IA por puro dogmatismo es negar una oportunidad extraordinaria de enriquecernos. Los lectores, y creedme cuando lo digo, buscan la chispa del pensamiento crítico, la voz que aporta claridad en un mar de ruido. Al utilizar la IA de manera inteligente, podemos fortalecer nuestra marca personal, aprovechando sus capacidades para mejorar nuestro propio trabajo. Es la sinergia perfecta: la IA asume las tareas más mundanas y nosotros, los periodistas, tomamos las riendas de aquello que realmente importa. ¡La autenticidad, queridos amigos, no está en peligro!
Nota del autor: Tras una observación muy pertinente de uno de los asistentes al coloquio que me decía que, excepto en casos contados como el mío —propietario del medio cultural—, la mayoría de los participantes no tienen decisión en el ámbito estratégico, es decir, sus medios les imponen la adecuación de sus textos y contenidos al algoritmo. Por lo tanto no se puede hablar de hipocresía ya que casi ningún periodista tiene, en realidad, la libertad plena de decidir sobre la dirección editorial. Están, más bien, sujetos a las reglas y expectativas dictadas por sus superiores, quienes priorizan la visibilidad y el tráfico por encima de la independencia creativa o el rigor periodístico. Es por ello que, en respeto a todos los periodistas culturales que asistieron al coloquio, he cambiado el título del artículo por «La paradoja cultural: demonizar la inteligencia artificial mientras se sucumbe a los algoritmos».
Verdades como puños. Un artículo muy valiente.
Esto que se cuenta en el artículo no solo pasa en las secciones de cultura de los medios, es aplicable a todos los periódicos y revistas que tienen versión digital. Por lo demás, difiero del autor en que «Los periodistas no deben temer ser sustituidos por la inteligencia artificial». Sí que deben temer ser sustituidos.
Totalmente de acuerdo.
Sinceramente no estoy en contra de la conclusión a la que se llega en el artículo pero lo que sí tengo claro es que el autor ha llegado a estas de manera apresurada. No puedo evitar dudar de su criterio cuando califica el artículo escrito por la ia como «análisis crítico, mordaz y perfectamente documentado» cuando si te paras a leerlo es una reformulación constante de varios clichés y ni siquiera menciona el nombre de un disco en concreto o eventos particulares, es genérico hasta decir basta.
Como lector interesado en estos temas no entiendo la falta de ejemplos particulares de cómo integrar esta tecnología en un proceso creativo más allá de transcribir y resumir información. Estoy cansado de leer lo útiles que pueden ser estas tecnologías sin muestras que lo respalden, ya que cuando te mojas y pruebas no están a las altura de las afirmaciones de sus defensores. Sería mucho más útil esto que señalar con el dedo a sus compañeros de profesión y acusarlos de luditas o hipócritas.
En definitiva, entiendo que el autor esté impresionado por las ias pero creo que no termina de considerar las implicaciones del ruido algorítmico y cómo estos sistemas van a devaluar su trabajo.
Va a resultar que la IA, sin proponérselo, ha venido a poner las cosas en su sitio en lo que a periodismo cultural respecta.
Aunque en casa siguen entrando periódicos en papel, mis hijos de 20 y 17 años no los miran ni para ver la portada. Si algo les interesa, el mayor pregunta a Chat GPT y la pequeña busca en Tik tok. ¿Suplementos o revistas culturales? Ni saben que existen.
Pero lo peor no eso. Lo peor es que los boomers (los de mi edad) tampoco los leen.
Saber que el 90% de lo que se publica en las páginas culturales de nuestros periódicos lo puede hacer una máquina en 2 minutos, deja en pelotas a muchos/as que hasta hoy presumian de vestir los más caros trajes diseñados por firmas de alta costura de París.
¿Está seguro el autor de que las IA no desarrollarán autenticidad y originalidad?. Se podría proponer un experimento. Encargar el mismo artículo sobre el mismo tema (Swift & Brown) a las diferentes IA´s disponibles y comparar los resultados. Si se trata de frías máquinas sin entendimiento deberían ser idénticos o casi. Pero a lo mejor alguna nos sorprende….
Su comentario da pie a pensar que vd piensa que en algún momento se ha producido una especie de singularidad y que las «IAs» al ofrecer resultados diferentes, pueden estar dotadas de cierta inteligencia.
Y nada más lejos de la realidad, la IA generativa sigue siendo una «máquina fría» (en realidad caliente por el enorme consumo de energía ;] ) que ofrece resultados diferentes según cómo haya sido su proceso de entrenamiento y cuáles hayan sido los datos empleados para entrenarla. Son sistemas muy complejos de operaciones algebraicas y probabilidad, y eso es todo. No se les puede dotar de voluntad ni de autonomía, y sería muy discutible afirmar que son capaces de entender o crear (no digamos ya de forma crítica). Si a ese conjunto de convoluciones en vez de denominarlo como IA se le hubiera llamado de otra forma más prosaica y mas técnica, no existiría esta burbuja de excitación promovida por gurús y periolistos que incita a pensar a la gente corriente cosas como las que vd. sugiere.
Las arquitecturas basadas en transformers, los LLMs, las redes neuronales… son herramientas fascinantes y tienen mucho potencial, pero no son seres sintientes, ni creativos, ni originales. Son herramientas avanzadas de refrito y copia-pega (hablando de chatbots e IA generativa). Basta de sensacionalismo.
P.D: ni siquiera está claro que sean potencialmente tan útiles puesto que se está descubriendo que existen ciertos límites en la escalabilidad de estos modelos generativos, no ya por consumo energético, si no por fiabilidad de los resultados. Parece que la Ley de Pareto vuelve a aparecer. Es decir, que se haya conseguido en unos años avanzar tanto en estos temas no implica que el ritmo de avance se pueda mantener, que la siguiente versión de GPT seguramente no será el doble de buena que la anterior.
Gracias por su amable comentario, pero lamento que no haya visto vd. que mi primera frase iba encerrada entre signos de interrogación lo que encierra una pregunta y no una afirmación, es decir yo NO pienso que se haya producido una singularidad, solo me pregunto si es imposible que ocurra algún día. Por otra parte dice vd que no se puede dotar de voluntad y autonomía a una ia, pero ¿descarta que pueda obtenerlas por su cuenta, sin pedir permiso? Una neurona por si sola no hace casi nada, no posee inteligencia ni sentimientos, pero junte cien mil millones y tendrá una atronadora sinfonía de Beethoven. ¿Considera imposible que mil millones de redes neuronales se autoorganicen y desarrollen hasta obtener conciencia, tal y como hizo el cerebro humano hace miles de años? PD: Observe de nuevo que solo lanzo preguntas. No afirmo nada categóricamente pues no soy experto en nada, solo elucubro libremente para pasar el rato. Saludos cordiales.
Sí, lo descarto. Las «IAs» tal y como son hoy en día no tienen nada que ver con la conciencia, la autonomía o la voluntad y los modelos que se utilizan no van a cambiar en ese sentido. Por muchas redes neuronales y mucha AGI que se pretenda conseguir, con lo que existe actualmente no llega. Algunas razones las he indicado en el anterior comentario, pero la principal es que mientras que no seamos capaces de entender cómo funciona una inteligencia natural, será imposible crear una artificial, puesto que no podríamos comparar.
Fíjese, lo más interesante de todo este contubernio es que pone de manifiesto que todavía no tenemos del todo claro cómo opera el cerebro humano. Es por esa bruma de conocimiento que cualquier sucedáneo de inteligencia tendemos a asimilarlo a una inteligencia natural, sin saber muy bien todavía cómo opera esta en realidad. Pero ¡cómo podríamos decir que una máquina es consciente sin tener del todo claro lo que implica la consciencia y cómo se produce!
Andrés ya lo ha explicado muy bien y quizá no tiene mucho sentido abundar en ello, pero creo que es importante. Efectivamente llamar inteligencias artificiales a ChatGPT y demás no es más que una hipérbole, un error. Al fin y al cabo, a un nivel funcional no son muy diferentes a esos programas que juegan al ajedrez tremendamente y que tanto sorprendieron en su momento, pero que ya están asumidos y olvidados; estas nuevas “IAs” serían los mismo, pero con palabras o con imágenes según el caso. Pero ni las puedes sacar de ahí, ni pueden salir de ahí por ellas mismas por algún proceso de autoevolución; de igual manera que un programa de ajedrez de esos que se sacan jugadas de la manga capaces de dejar boquiabiertos a los grandes maestros no es capaz de aprender a escribir el texto más simple (ni a día de hoy ni siquiera los más legos en la materia hipotéticas con que eso pudiera suceder por sí solo; ya nos hemos acostumbrado todos).
No hay capacidad de abstracción, sea lo que sea eso que, como muy bien dice Andrés, ni siquiera sabemos definir ni por tanto, modelar. Para una IA conversacional las palabras son lo mismo que los movimientos del tablero para una que juega al ajedrez; o, para el caso, lo que una multiplicación para una calculadora de bolsillo: no tiene el concepto de lo que significa “multiplicar”, aunque lo haga divinamente. Lo que marca la diferencia está en nosotros, y no en las máquinas: mientras que las matemáticas y el ajedrez no son cosas naturales para nosotros, sino artificios que poca gente maneja con soltura, el lenguaje si lo es, y las imágenes también. Eso nos hace más propensos a identificar una verdadera inteligencia potencial detrás, una “conciencia” emergente o cerca de poder emerger; pero no son más que máquinas siguiendo unas reglas que por muy ingeniosas y avanzadas que sean, y lo son, fascinantes en su campo, no dejan de ser en el fondo lo mismo (un camino predeterminado y cerrado) que en los ejemplos más pretéritos que he puesto.
Ya muy a futuro pues quien sabe si será posible crear una conciencia o inteligencia artificial; pero lo que hay ahora no tiene nada que ver con eso, sin demérito de que pueda tener una gran influencia para bien o para mal en la sociedad, igual que la tuvo el ferrocarril. Llamarlas IAs nos resulta conveniente sí, pero errado.
Respondo también a Andrés. Seguramente tienen ustedes razón, pero no me acaban de convencer. Su concepción del «espíritu» humano como algo «especial», no reproducible, me parece más teológica que científica. Por cierto, ¿un pájaro necesita saber física para volar? Creo que la mayoría de los descubrimientos humanos se han hecho por una mezcla de casualidad y curiosidad, no por un conocimiento previo profundo. En todo caso, gracias por su amable atención.
Gracias igualmente. Yo no digo que no sea reproducible (ni que lo sea). Yo lo que digo es que las herramientas y sistemas de IA que existen hoy en día no pueden “cobrar conciencia”. Los nombres son muy sugerentes (redes neuronales, inteligencia artificial…) , pero cuando se comprende a nivel técnico como funcionan esas técnicas y lo específicamente que se tiene que diseñar cada sistema para cada tarea concreta, se entiende que no va a ocurrir nada parecido. Es como pretender que una lavadora aprenda a fregar platos como un lavavajillas. Ambos se construyen con los mismos componentes eléctricos (resistencias, motores, transistores, condensadores…), pero no se van a transformar la una en la otra. Y las redes neuronales igual, las “neuronas” van a hacer lo que se les ha diseñado que hagan, aunque sean diez mil billones de ellas. Que es que no son neuronas de verdad.
¿Se podría usar redes neuronales para construir una conciencia artificial? Pues no lo sé, pero sí sé que si fuera posible, sería porque se hubiese diseñado específicamente con ese propósito; y si no sabemos ni siquiera en qué consiste, difícilmente. Pero no va a surgir de chiripa emergente alguna a partir de ChatGPT ni de ninguna otra aplicación que las use para cualquier cosa que no fuera aquel propósito. Porque es exactamente lo mismo en el fondo que el ejemplo de la lavadora que quería lavar platos. Que esto suene decepcionante o poco inspirador no es relevante.
Puede existir diferencias en los resultados de distintas AI con una presicion, rapidez y asombrosa calidad pero la calides, la experiencia humana vivida en el día a día, etc, son rasgos con los que otros seres humanos se conectan he identifican y a eso apunta la crítica, a no encontrar más esos rasgos en una historia, en una información periodística
Jajajaja, menuda marcha atrás del «editor» de Jot Down. Eso le pasa por titular para el algoritmo.
Dice Ángel L. Fernández: «La verdadera amenaza, me temo, es la reticencia a aceptar la evolución.» Aquí está la clave. Cuando niño, en Barcelona, para llegar al parvulario había que cruzar la Gran Vía, y la muchacha que me llevaba y traía me avisaba todas las veces a gritos de que no pisara las vías del tranvía si no quería morir electrocutado. La ciencia, la tecnología, no es aceptada por muchos, aunque estén catalogados como humanos.
Me preguntó si estamos preparados mentalmente para las IAs en un contexto en el que enseñar a pensar esta casi prohibido.
Por otro lado me pregunto, teniendo en cuenta lo que el autor ha expuesto, si no llevar a cabo ciertos trabajos que se consideran un lastre para la originalidad (recopilar datos por ejemplo), provocará el efecto contrario y nos convertirá en chamanes, en curas, en mitólogos panzuditos que olvidan el valor de lo empírico.
A veces resulta más curiosa la reacción de los usuarios de los medios, quienes, con razón, critican la pérdida de calidad narrativa de los artículos y noticias, plagados de errores ortográficos y de estilo, mientras claman contra el uso de IA para redactarlos. Un artículo interesante. Gracias.
Cuando una máquina (IA) se pone a trabajar sobre una colosal base de datos, genera ‘discursos’ en un lenguaje natural que maneja una enorme cantidad de información. Lo redacta bien y lo organiza perfectamente. Y todo eso es muy sorprendente porque la máquina no entiende lo que está haciendo. Lo que hace la máquina es calcular las probabilidades de que sea una ‘buena respuesta’.
El tema esencial a mi entender es que, previamente, hay que decirle a la máquina cuáles son las ‘buenas respuestas’, es decir, lo fundamental es conocer el criterio de evaluación que le ha dado el programador.
¿Cómo sabemos que lo que dice la máquina es fiable, cómo saber que lo que dice es verdadero? A esto se le ha llamado siempre ‘pensamiento crítico’ (muy poco común), que es la inteligencia ejecutiva, la que toma las decisiones (no la que produce información=inteligencia generadora). El centro de la cuestión de la inteligencia humana es el sistema de evaluación, que es lo que nos hará distinguir lo verdadero de lo falso, lo bueno de lo malo y para quién es bueno o malo, favorable o no a sus intereses (ÉTICA).
La IA no va a matar el periodismo. Porque el periodismo ya estaba muerto cuando llegó la IA. El problema es que el «dueño» de JotDown todavía no se ha dado cuenta de que vive en una especie de película «Sexto Sentido». Mis condolencias.
¿Qué es el periodismo?
Tremendo artículo. Aplica para todxs, no solo para los periodistas. Grandes retos por delante
Pingback: ¿Como guiar mi Dirección de Masticadores con respecto al uso de la I. A,? by j re crivello – Masticadores
Estoy de acuerdo con lo que Ud. dice. Dirijo Masticadores.com y me aplico a la experiencia creativa y no la dirección del algoritmo. Y este debate con la I. A, ya lo he mantenido con alguno de mis 22 editores. He publicado su artículo en Masticadores.com
Saludos
J Re crivello