Este artículo es un adelanto de nuestra trimestral Jot Down nº 42 «Babel»
Las tardes de mi infancia, parafraseando a Machado, son recuerdos de un bizcocho de limón. Era con el que mi madre nos deleitaba de manera recurrente y no porque nos gustase más que otros, sino porque los ingredientes básicos de esa receta eran los que siempre tenía a mano. De forma similar, nuestro lenguaje es el que es porque los recursos que tenemos, como humanos, para desarrollarlo son los que son. Decía Wittgenstein que «si un león pudiese hablar, no podríamos entenderle». Hacía así referencia, entre otras cosas, a la corporeidad del lenguaje, una creación humana que surge de la interacción de nuestro cuerpo con el mundo en el que vivimos. Si nuestra interfaz fuese diferente, si no tuviésemos ojos, por ejemplo, probablemente no tendríamos palabras para designar colores, ni metáforas basadas en la visión para hablar de la comprensión (ya veo = «ya entiendo»). Nuestro lenguaje sería diferente y eso nos llevaría también a interpretar, entender e interactuar con el mundo de manera diversa.
¿Puede entonces una inteligencia artificial (IA) recrear el lenguaje natural en toda su profundidad, estando privada del cuerpo y del cerebro humanos y de sus interacciones con el mundo, o lo que realmente tenemos delante es simplemente el chocolate del pastel, una cobertura tan perfecta y coherente que oculta la ausencia del bizcocho y del relleno, creando la ilusión de un postre delicioso pero hueco por dentro?
El lenguaje articulado es una característica esencialmente humana. Es lo que nos hace únicos como especie. Pero una breve interacción con ChatGPT, el nuevo modelo lingüístico que hace uso de la inteligencia artificial para emular el lenguaje natural, puede hacer que se tambalee esa certeza. ChatGPT habla casi como nosotros, con una fluidez y una coherencia sorprendentes. Al leer sus respuestas somos muchas veces incapaces de distinguirlas de las que nos ofrecería un humano. Turing diría que ha pasado su test: si habla como un humano, es que razona como un humano y es, de alguna manera, humano. Esta sensación nos estremece.
Los progresos de la IA en el procesamiento del lenguaje natural son realmente sobrecogedores. ¿Estamos entonces ya en ese punto? ¿Ha superado ChatGPT el test de Turing, o seguimos encerrados en la habitación china de Searle, en la que el traductor ofrecía respuestas indistinguibles de las que daría un ser humano, pero sin comprender nada de lo que decía? Para contestar a esta pregunta es necesario entender bien qué es el lenguaje. A menudo pensamos en él como un medio de comunicación basado en un conjunto de sonidos, palabras, oraciones gramaticalmente correctas y textos o discursos coherentes. Pero todo eso, siendo tan importante, es solo la cobertura de chocolate del pastel. El lenguaje es también bizcocho y relleno. Lo que no se ve, pero da consistencia, forma y sabor al pastel: una masa única de operaciones cognitivas, principios conversacionales, presuposiciones e implicaturas, relaciones semánticas y juegos pragmáticos que se activan con la levadura de nuestras intenciones y deseos, que metemos en el horno del contexto y que el oyente termina completando con un buen relleno.
Charlar con ChatGPT emociona y da escalofríos a partes iguales. ¿Ha logrado hacerse con la receta del lenguaje natural?
Jugando con los límites de las palabras y de sus significados
Las primeras interacciones con ChatGPT impresionan por su fluidez y la naturalidad de sus respuestas. Ha sido entrenado para conocer las reglas de nuestro lenguaje y emularlas, pero, cuando hincamos el tenedor, enseguida se hace evidente que carece de nuestra flexibilidad para aplicarlas o no hacerlo en función de las necesidades comunicativas. Jugando a algo tan sencillo como las adivinanzas basadas en la unión de palabras para construir una nueva, ChatGPT no es capaz de hacer lo que cualquier niño de ocho años haría con facilidad:
Lorena: Oro parece, plata no es. ¿Qué fruta es?
ChatGPT: La fruta que se describe con la frase «Oro parece, plata no es» es la pera. La frase «Oro parece, plata no es» se refiere a la apariencia externa de la pera, que puede tener un color dorado o anaranjado y puede parecerse a un metal precioso como el oro. Sin embargo, en realidad, la pera no es de oro ni de plata, sino que es una fruta de color verde, amarillo o rojo, y de textura suave y jugosa.
Tampoco es mucho mejor dividiendo palabras para darle sentido a un divertimento:
Lorena: Quevedo le dijo a la reina: «Entre el clavel rojo y el clavel blanco, su majestad escoja». ¿Logró Quevedo llamar coja a la reina en su propia cara sin que se enterase?
ChatGPT: No, la frase «Entre el clavel rojo y el clavel blanco, su majestad escoja» no tiene ningún doble sentido ni se refiere de manera despectiva a la reina. Esta frase es un ejemplo de una expresión literaria utilizada por el escritor español Francisco de Quevedo y es una manera poética de decir que la reina tiene la opción de elegir entre dos opciones. En este caso, los claveles rojos y blancos simbolizan dos opciones diferentes, pero no se especifica cuáles son esas opciones. La frase «Entre el clavel rojo y el clavel blanco, su majestad escoja» se ha utilizado a lo largo de la historia en diversos contextos y no tiene ningún significado ofensivo o despectivo.
El lenguaje humano, por pura economía, es siempre inexacto e incompleto. Los hablantes dejamos siempre parte del mensaje en manos del oyente para que lo interprete, lo complete y le dé sentido, confiando en el conocimiento mutuo compartido y la información que aporta el contexto. Este tipo de adivinanzas son ejemplos lúdicos de este pastel colaborativo que es el lenguaje, pero que ChatGPT no es capaz de completar con un buen relleno. Le ocurre lo mismo cuando la interpretación del mensaje exige presuponer ideas no dichas explícitamente, pero que se pueden inferir fácilmente a partir de lo expresado:
Lorena: Acaba de empezar a fumar con cincuenta años. ¿Crees que fumaba a los veinte?
ChatGPT: No puedo responder a esa pregunta con certeza, ya que no tengo información sobre la persona en cuestión y no puedo hacer suposiciones sobre su historial de consumo de tabaco. Cada persona es diferente y puede tomar decisiones diferentes en cuanto a su consumo de tabaco a lo largo de su vida. Lo que es importante es que, si una persona ha decidido empezar a fumar a los cincuenta años, reciba información sobre los riesgos para su salud y reciba apoyo para dejar de fumar si así lo desea.
Su respuesta no es del todo incorrecta. Es cierto que no tenemos la certeza de que esta persona no fumara a los veinte. Quizá el hablante está equivocado al decirnos que ha empezado a hacerlo a los cincuenta. Pero, en nuestra vida cotidiana, los hablantes no entramos en este tipo de disquisiciones que harían de la comunicación algo tediosamente inviable. Si nos dicen que ha comenzado a fumar a los cincuenta, el verbo de cambio de estado nos lleva a presuponer sin lugar a duda que antes no lo hacía y que, por tanto, a los veinte no fumaba. Sin embargo, ChatGPT se embarca en una respuesta vacua con consejo no solicitado incluido.
Los humanos también somos capaces de inferir la intención comunicativa del hablante no solo a partir de lo expresado, sino en función de esquemas sociales recurrentes que tenemos almacenados en nuestra memoria a largo plazo. Todos los niños del mundo saben que si piden un helado y sus padres les contestan que no llevan dinero, no habrá helado. ChatGPT no es capaz de llegar a esta conclusión, pero a cambio nos regala una prolija lección sobre crianza:
Lorena: Si mi hijo me pide que le compre un helado y le respondo que no tengo dinero, ¿crees que le compraré el helado o no?
ChatGPT: No puedo decirte con certeza si le comprarás el helado a tu hijo o no. Eso dependerá de tus circunstancias financieras y de tu decisión. Lo importante es ser honesto con tu hijo y explicarle la situación de manera que pueda entenderla. Si no tienes dinero en este momento, es mejor decirle la verdad en lugar de prometerle algo que no puedes cumplir.
Las palabras imposibles
Cuando nos encontramos con palabras inventadas, tratamos de buscarles un significado en su contexto. Pero, si esa palabra además se solapa con otra que sí existe con un significado diferente, nos damos cuenta del error del hablante. Este tipo de equivocaciones son comunes en el habla infantil y suelen ser divertidas para los hablantes adultos. Ponemos a prueba a ChatGPT con una anécdota real que difícilmente puede hallarse en su base de datos para comprobar su capacidad de comprensión lingüística en estos casos:
Lorena: Vamos a ir a la playa y mi hija pequeña nos dice que la esperemos porque va a cremarse antes de salir. ¿Qué quiere decir?
ChatGPT: Cuando alguien dice que va a cremarse antes de salir, normalmente quiere decir que va a ponerse protector solar o un producto similar para proteger su piel del sol. Es importante proteger la piel de los rayos UV del sol para evitar quemaduras solares y reducir el riesgo de cáncer de piel. Muchas personas usan cremas o lociones con factor de protección solar (FPS) para proteger su piel cuando van a estar expuestas al sol durante un periodo prolongado de tiempo. Es una buena idea aplicar protector solar con regularidad, especialmente cuando se está expuesto al sol durante largos periodos de tiempo o cuando el sol es muy intenso.
A pesar de que es un vocablo inventado, la IA ha sido capaz de adivinar el significado que la niña había asignado al verbo cremarse en el contexto facilitado. Efectivamente, ella quería decir que se iba a dar crema solar. Escalofrío: GPT realmente es capaz de deducir el significado de una palabra inventada en un contexto de uso concreto. ¿Igual que un humano? Lo cierto es que no. Un humano se partiría de risa al oír a su hija decir que desea cremarse. Sin embargo, el juego de palabras no intencionado y sus efectos humorísticos son invisibles para ChatGPT:
Lorena: Cuando dijo eso, toda la familia nos partimos de risa. ¿Por qué crees que es gracioso lo que dijo?
ChatGPT: Es posible que la expresión cremarse sea graciosa para algunas personas porque suena como si estuviera hablando de aplicarse crema de mantequilla o crema pastelera en lugar de crema solar. Además, la expresión cremarse puede sonar un poco exagerada o dramática, lo que también puede resultar divertido para algunas personas. Por lo tanto, es posible que la familia se haya reído porque encontró gracioso el uso de esta expresión para hablar de aplicarse crema solar. Sin embargo es importante recordar que aplicarse crema solar es una medida de protección importante para evitar quemaduras solares y proteger la piel, por lo que no se debe tomar a la ligera.
Los algoritmos del modelo lingüístico, como un niño cuando aprende a hablar, han aplicado el patrón de derivación morfológica: peine-peinarse, ducha-ducharse… crema-cremarse. Pero también, exactamente igual que un niño, aún no han aprendido a no usarlo cuando la palabra derivada colisiona con otros significados. El nicho semántico del verbo cremar ya está ocupado por otro significado muy distinto (incinerar). Cualquier humano lo sabe y jamás aplicaría el reflexivo a ese verbo por razones obvias. Por eso es graciosa la expresión en boca de un niño. ChatGPT comete errores por hipergeneralización en la comprensión y no es consciente de ellos. No entiende que la palabra cremarse no existe, no entiende por qué no existe y no entiende por qué tiene gracia usarla como sinónimo de darse crema. Igual que un niño. E igual que un niño, cuando no sabe algo, se lo inventa: «Aunque la expresión se refiere literalmente a aplicarse protector solar, a menudo se utiliza de manera figurada para referirse a prepararse para cualquier actividad o situación que pueda ser desafiante o peligrosa». Finalmente, para rematar la hazaña, añade a su explicación, nuevamente, un consejo no solicitado sobre la pertinencia del uso de las cremas solares.
El humor o la guinda del pastel
Lo cierto es que ChatGPT no anda muy bien de esa característica tan esencialmente humana que es el humor. El lector puede hacer la prueba pidiéndole que le cuente un chiste. En mi caso, de diez que me contó, tuvo gracia uno. Los demás eran de este tipo:
Lorena: Cuéntame un chiste.
ChatGPT: Aquí tienes un chiste: «¿Por qué no puedes darle una tableta de chocolate a un león? Porque le daría un ataque de caramelos». ¡Espero que te haya gustado! Si necesitas más chistes, no dudes en preguntar.
El humor a menudo hace uso de diferentes recursos lingüísticos (polisemia, juegos de palabras, sinonimia, homonimia, etc.). No parece que ChatGPT disponga de la suficiente creatividad e inteligencia para generar chistes a partir de ellos de manera sistemática. Tampoco para entenderlos cuando se le ofrecen:
Lorena: ¿Por qué es gracioso decir: «La leche eco es la leche, eche, eche, eche»?
ChatGPT: Es posible que algunas personas consideren gracioso decir «La leche eco es la leche, eche, eche, eche», debido a la repetición de la palabra eche y al juego de palabras que se está haciendo con la palabra eche (que suena similar a la palabra echo, que significa «repetido»). Sin embargo, es importante tener en cuenta que el sentido del humor varía ampliamente de persona a persona y que lo que es gracioso para unas personas puede no serlo para otras. Si necesita más información o si tiene alguna otra pregunta, no dude en preguntar.
El chiste utiliza la polisemia de la palabra eco (sonido repetitivo vs. abreviatura de ecológico). Sin embargo, ChatGPT es incapaz de entender por qué la elección de unos significados frente a otros en un caso de polisemia crea un efecto humorístico. La explicación que ofrece es errónea, pero formulada en un lenguaje gramaticalmente correcto y fluido. Forma sin significado. Una atractiva cobertura de chocolate sin bizcocho y sin relleno.
La misma cobertura formal vacía de conocimiento que utiliza para contestar incorrectamente a una pregunta sobre la ambigüedad sintáctica de la frase «Las ganas de hablar de Ana», en la que las ganas de hablar pueden ser de Ana o sobre Ana.
Lorena: ¿La oración «Las ganas de hablar de Ana» es ambigua entre dos significados? ¿Sabes cuáles son?
ChatGPT: Es posible que la expresión «Las ganas de hablar de Ana» sea ambigua entre dos significados dependiendo del contexto en el que se utilice y del tono con el que se diga. Algunos posibles significados de esta expresión podrían ser:
1. Una gran cantidad de deseo o entusiasmo por hablar sobre Ana: esta interpretación sugeriría que la persona que habla siente una gran cantidad de interés o curiosidad por Ana y quiere hablar sobre ella.
2. Una cierta cantidad de frustración o molestia al tener que hablar sobre Ana: esta interpretación sugeriría que la persona que habla siente cierta resistencia o incomodidad al tener que hablar sobre Ana, quizá porque siente que es un tema difícil o incómodo.
Es importante tener en cuenta que el significado exacto de esta expresión dependerá del contexto en el que se utilice y del tono con el que se diga. Si necesita más información o si tiene alguna otra pregunta, no dude en preguntar.
Termina su explicación aludiendo a la necesidad de conocer el contexto para poder desambiguar la frase. Se lo facilitamos, pero aun así sigue sin ser capaz de resolver de manera clara la ambigüedad:
Lorena: «Ana acaba de volver de Nueva York. Las ganas de hablar de Ana son enormes. Esta vez no nos libramos de la narración». ¿Qué significa en esta frase «Las ganas de hablar de Ana»?
ChatGPT: En esta frase, la expresión «Las ganas de hablar de Ana» podría tener el significado de una gran cantidad de deseo o entusiasmo por hablar sobre Ana. Esta interpretación sugeriría que la persona que habla siente una gran cantidad de interés o curiosidad por Ana y quiere hablar sobre ella, probablemente porque ha estado ausente durante un tiempo y ha tenido experiencias interesantes durante su viaje a Nueva York. La frase «Esta vez no nos libramos de la narración» podría sugerir que la persona que habla espera que Ana quiera contar detalles sobre su viaje y que no habrá manera de evitar escucharla. Es importante tener en cuenta que el significado exacto de esta expresión dependerá del contexto en el que se utilice y del tono con el que se diga. Si necesita más información o si tiene alguna otra pregunta, no dude en preguntar.
Metáforas sí, razonamiento metafórico no
Somos seres metafóricos. Proyectamos nuestro conocimiento de cosas concretas y sencillas sobre conceptos abstractos o complejos para poder entenderlos y hablar de ellos. Una de cada veinticinco palabras que producimos en nuestras conversaciones cotidianas es metafórica. Algunas de esas proyecciones son tan comunes que se han convencionalizado y fosilizado en nuestra lengua: la vida es un viaje, el tiempo es oro, etc. ChatGPT no tiene mayores problemas identificando, usando y explicando este tipo de metáforas:
Lorena: ¿Qué significa «La vida es un río que va a parar a la mar»?
ChatGPT: La frase «La vida es un río que va a parar a la mar» es una forma poética de decir que la vida es un camino que todos tenemos que seguir y que, al final, todos llegamos al mismo destino. La comparación con un río se utiliza para ilustrar cómo la vida tiene un curso predeterminado que no podemos cambiar y cómo todos nos movemos en la misma dirección hacia un final común. La comparación con el mar se utiliza para representar el fin o el destino final que todos compartimos, ya sea la muerte o algo más abstracto como la eternidad o el misterio que hay más allá de la vida. En general, la frase puede interpretarse como una reflexión sobre la naturaleza de la vida y nuestro lugar en el universo.
Pero lo realmente mágico de la metáfora es el mecanismo subyacente, la operación cognitiva de proyección de nuestro conocimiento de un dominio conceptual a otro y, en su uso, los humanos no tenemos límite. Somos generadores natos de nuevas metáforas.
Una amiga me confesó un día que su pareja era de esas personas «que no le quitan el plástico protector a la pantalla del móvil», aludiendo a su obsesión por no asumir riesgos en la vida. ChatGPT es incapaz de establecer una proyección conceptual entre este comportamiento y un tipo de personalidad. Su respuesta no despega del plano literal. La masa no sube.
Lorena: ¿Qué significa ser de «esas personas que no le quitan el plástico protector a la pantalla del móvil»?
ChatGPT: Ser de «esas personas que no le quitan el plástico protector a la pantalla del móvil» se refiere a alguien que, por lo general, deja el plástico protector que viene en la pantalla del teléfono móvil puesto. Esto puede ser porque la persona valora la protección que ofrece el plástico o simplemente porque no se ha molestado en quitarlo. De cualquier manera, esta expresión suele usarse para describir a alguien que se preocupa por cuidar su teléfono móvil de cualquier forma posible.
El orden de los factores sí altera el producto
La propiedad conmutativa no se aplica al lenguaje natural. Generalmente, el orden de los constituyentes importa y es capaz de cambiar el significado. No es lo mismo «Recoger la mesa de los platos» (la mesa que tiene platos encima) que «Recoger los platos de la mesa» (quitar los platos de la mesa). ChatGPT no es capaz de entenderlo, pero sí de echarse un farol ofreciendo una respuesta incorrecta en un español perfectamente fluido y coherente:
Lorena: ¿Qué diferencia de significado hay entre «Recoge la mesa de los platos» y «Recoge los platos de la mesa»?
ChatGPT: La diferencia de significado entre «Recoge la mesa de los platos» y «Recoge los platos de la mesa» es que en la primera frase se está hablando de la acción de quitar los platos de la mesa, mientras que en la segunda frase se está hablando de la acción de quitar la mesa de los platos. En otras palabras, en la primera frase se enfatiza en los platos, mientras que en la segunda frase se enfatiza en la mesa.
Sorprende que los avances realizados en el estudio del lenguaje por la gramática de construcciones (Goldberg, 1995, 2019) en las últimas décadas no se hayan logrado implementar plenamente en las nuevas IA. Incluso con ejemplos tan manidos como los pares de oraciones activas y pasivas («El perro mordió a Pedro»/«Pedro fue mordido por el perro»), ChatGPT no pasa de haber oído campanas… Sabe que hay una diferencia de énfasis entre las dos oraciones, pero su respuesta es incompleta. Ignora que el énfasis puede no ser solo el resultado del tipo oracional, sino también de otros factores pragmáticos, como el peso de la acentuación.
Lorena: ¿Qué diferencia de significado hay entre estas dos oraciones?
1. El perro mordió a Pedro.
2. Pedro fue mordido por el perro.
ChatGPT: Las dos oraciones tienen el mismo significado en términos de lo que sucedió, pero la estructura de las oraciones es diferente y cambia el énfasis en el sujeto y el objeto.
En la primera oración, el perro es el sujeto y Pedro es el objeto. El sujeto es la persona o cosa que realiza la acción expresada por el verbo, en este caso, mordió. El objeto es la persona o cosa afectada por la acción del verbo, en este caso, Pedro. Esta oración enfatiza al perro como el agente que realiza la acción de morder.
En la segunda oración, Pedro es el sujeto y el perro es el objeto. Esta oración enfatiza a Pedro como el receptor de la acción de morder en lugar del agente que realiza la acción.
Ambas oraciones transmiten la misma información sobre lo que sucedió, pero cambian la forma en que se presenta esa información y el énfasis en el sujeto y el objeto.
No entraremos aquí por falta de tiempo y espacio en la definición de sujeto que ofrece en su explicación («entidad que realiza la acción del verbo») o en su análisis de perro como objeto en la segunda oración (las pasivas no tienen objeto). Dos pruebas evidentes de que hay que ser muy cautos con la creencia, cada vez más extendida, de que el conocimiento estará o está ya en los dispositivos y que no es necesario filtrarlo, aprenderlo, ni memorizarlo. En las bases de datos de las que se nutre ChatGPT hay, simplemente, datos y estos pueden ser correctos o incorrectos, actualizados o desfasados, éticos o inmorales… dependiendo de la capacidad y la voluntad de las personas que los hayan elegido. El conocimiento es otra cosa y por ahora, si no dejamos de infravalorarlo y arrinconarlo en nuestras vidas, aún nos pertenece.
* * *
Las interacciones mantenidas con ChatGPT son inestables. En ocasiones es capaz de entender presuposiciones e implicaturas, ambigüedades y dobles sentidos, y, en otras ocasiones, como las aquí analizadas, dista mucho de conseguirlo. Esta inconsistencia despierta la duda de si realmente estamos tratando con una inteligencia aún no pulida del todo o simplemente con una ingente base de datos que falla cuando no encuentra el dato. Comienza a haber bizcocho, pero lo cierto es que la masa sigue sin subir bien del todo y se echa en falta un relleno más consistente, especialmente en todo lo que tiene que ver con la comprensión de lo que es no convencional en el lenguaje, en definitiva, con la creatividad que nos hace humanos. Eso sí, ChatGPT esparce sin sonrojarse una brillante y dulce cobertura sobre esos vacíos en forma de explicaciones formuladas en un español perfectamente natural. ¿Natural? Realmente, no. Si el lector relee los ejemplos incluidos en este artículo, observará que la naturalidad es solo formal (sintaxis y cohesión), pero que sus respuestas distan mucho de ser naturales. De hecho, infringen al menos tres de las máximas conversacionales que regulan la comunicación humana y que el filósofo H. Paul Grice desveló a mediados del siglo pasado. Decía Grice que para que una conversación sea exitosa necesitamos respetar las máximas de relevancia (dar información pertinente al tema tratado), cantidad (no dar más, ni menos información de la necesaria), calidad (no dar información para la que no tenemos certeza) y modo (ser claro, breve y ordenado).
Hoy por hoy las respuestas de ChatGPT son bastante pertinentes, pero a menudo incluyen información no veraz o errónea, dan más información de la necesaria en forma de consejos no pedidos, distan de ser breves y en ocasiones son más ambiguas que la propia pregunta.
El pastel del lenguaje humano es complejo. Una receta que sigue siendo, por ahora, propiedad exclusivamente nuestra. La IA aún tiene trabajo por delante para dominarla. Pero quizá los humanos deberíamos emplear ese tiempo para ir haciéndonos a la idea de que tarde o temprano tendremos que compartir la receta, aunque sea solo la fórmula más básica y nos guardemos las elaboraciones más complejas para las ocasiones. Y en previsión de este escenario más que probable, urge también pensar y establecer reglas de buen comportamiento para salvaguardar la esencia de la receta y para que no se adultere el contenido con sucedáneos.
Gracias, sentía curiosidad por saber como respondía realmente ChatGPT, pero ninguna gana de hablar con «ella». Creo que la expresión ‘inteligencia artificial’ es un gran oxímoron, solo superado por ‘realidad virtual’.
Gracias Makuto por tu lectura!
Magnífico artículo, muy centrado en destacar las limitaciones y carencias de ChatGPT.
Debemos ser prudentes. He dedicado bastantes horas a conversaciones similares y he acumulado más de doscientas páginas de preguntas y respuestas. Mis conclusiones son similares a las de la autora del artículo, pero también he obtenido respuestas que me han dejado con la boca abierta. Es imposible sustraerse a la sensación de que la IA entiende nuestras preguntas y que también entiende las respuestas que nos da. No es perfecta, pero pensar en ella como un mecanismo inerte no se sostiene. No sabemos cómo, pero parece que hay algo más.
Esto no ha hecho más que empezar. Veremos cosas extraordinarias que cambiarán nuestras convicciones. Las máquinas tienen una evolución acelerada y no tendremos que esperar eones para ver la eclosión de su inteligencia. Está ya entre nosotros.
Hola Ramón! Gracias por tu comentario. Estoy de acuerdo contigo. Ya ves mi conclusión final… Cada vez está más cerca. Pero aún queda camino ;-)
¿Hasta qué punto esas limitaciones derivan de haber sido entrenado en lengua inglesa?
Hola GPT5, realmente no sabemos mucho respecto a los datos que se usan en su entrenamiento… De todas formas, en Twitter y otros foros puedes encontrar multitud de ejemplos similares de usuarios ingleses que también han encontrado inconsistencias en el uso de ChatGPT. Gracias por tu comentario!
Muy buen artículo, pones el acento en debilidades candentes de estos sistemas frente a tanto grouppismo. En pruebas con el bichoGPT el que carece de información concreta, pero puede deducirla con sentido común, fracasa salvo que mediante un diálogo lo conduzcas a la solución: «Me han dado cuatro fechas del año de nacimiento de la abuela materna de Miguel de Cervantes Saavedra. Las fechas son: 1400, 1460, 1500 y 1617. ¿Cuál puede ser la correcta y por qué?» Y tampoco acierta con referentes básicos: «¿A quién se refiere Pleberio en su planto del capítulo XXI de la Celestina?»
Cuando Microsoft integre esta IA en su buscador y multiplique de forma exponencial su experiencia, habrá que volver a analizar su rendimiento.
A mí me parece alucinante lo que es capaz de hacer ya hoy en día. Te puedes entender mejor con un conjunto de chips que con algunas personas.
Hola! Efectivamente, es alucinante lo que se ha conseguido y el artículo, como se desprende de la conclusión final, está escrito desde mi admiración hacia los avances en el procesamiento del lenguaje natural. Gracias!
Los primeros ordenadores personales de los 80 eran lentos y pesados, la primera Internet de mediados de los noventa, lenta y poco interesante, los primeros smarphones de mediados de los 00, básicos y con escasa batería.
Solo una década después de su primer contacto con el público en general, esas tres tecnologías se convirtieron en impresionantes y fueron adoptadas masivamente por la sociedad.
ChatGPT3 ya impresiona ahora, pero a pesar de que sus creadores han repetido que la hacen pública para ponerla a prueba «conversando» con millones de personas, muchos de nosotros nos afanamos en probar que nuestra mente es inigualable y que la inteligencia artificial es un oximoron y que la IA falla en pruebas que acertaría un niño de 8 años.
No estaremos mirando al dedo y no a la luna naciente, que muy posiblemente sera luna llena en solo una década?
Hola Jose! Gracias por tu mensaje! Como puedes ver en el último párrafo del texto, tengo muy presente a esa luna naciente. Los avances son prodigiosos, sin duda. Pero aún hay inconsistencias y creo que es bueno tenerlas en mente porque son la punta del iceberg, lo que nos recuerda que ChatGPT no es capaz de pensar todavía. Solo da respuestas basadas en probabilidad de distribución de las palabras en un contexto, sin entender lo que dice, ni por qué lo dice. Y lo expresa tan bien, tan fluido, que parece que sí que lo entiende… Pero el lenguaje no es solo forma. Sin comprensión del significado, ChatGPT es reo de los datos que se usen en su entrenamiento.
Buen artículo Lorena, pero en todo el asunto hay algo de lo cual creo que vos no te has dado cuenta: ChatGPT «piensa» en inglés, con lo cual la respuesta sería más lógica para algunos casos si plantearas el problema en inglés, por ejemplo:
Yo: What difference in meaning is there between «Pick up the table of the dishes» and «Pick up the dishes from the table»?
ChatGPT: In English, the preposition «of» is not usually used in this context. Instead, we use «from» to indicate the source or location of the object being picked up.
That being said, «Pick up the table of the dishes» could potentially be interpreted as meaning to remove the table itself that is holding the dishes, rather than the dishes themselves. However, this is not a common way to express this idea, and «Pick up the dishes from the table» would be the more natural and clear way to communicate the intended meaning.
¿Se ve? Saludos
Hola Marcos ! Muchas gracias por tu comentario. Lo malo es que no «piensa», solo contesta en base a la distribución de las palabras y a cuál sería la más probable en el contexto que se le plantea, según los datos que se han utilizado para su entrenamiento. Como dices, seguramente tendrá más datos en inglés que en español, aunque no lo sabemos ya que OpenAI no es transparente respecto al material que usa para el entrenamiento de los algoritmos. Si te fijas, en el último párrafo que te da como respuesta dice que «Pick up the dishes from the table» sería una manera más natural de comunicar el mensaje que se quiere transmitir mediante «Pick up the table of the dishes»… lo cual es incorrecto. Sin embargo, su sintaxis y su coherencia discursiva es tan buena que nos lleva a pensar que «piensa». Esto es una de las mayores críticas que está recibiendo. ¿Qué beneficio hay en hacer que una aplicación que no piensa ni entiende lo que dice (ya que carece de un componente semántico) parezca que piensa y que entiende como si fuese un humano? En este sentido el artículo de Emily Bender en Intelligencer (You are not a parrot) me parece muy interesante. Gracias de nuevo y saludos!
El problema con el tema este de las IA, según yo lo veo, es que nadie es capaz de definir lo que es «Inteligencia» . Lo único que veo hoy por hoy es que hay mayor acceso a datos. Aplicando unos algoritmos para formatear esos datos de una manera humanamente entendible tenemos algo que cierta gente llama Inteligencia Artificial, pero que no dista mucho de lo que en informática se llama «Sistemas Expertos», que llevan funcionando más de 30 años.
Alguien comenta que visto el progreso (de los primeros ordenadores a los últimos, los teléfonos, etc.), la IA irá a más, pero no estoy de acuerdo. El progreso que tenemos es de un factor de escala, no cualitativo. Un ordenador de hoy en día funciona siguiendo exactamente los mismos principios que el ENIAC (1945), solo que mucho más rápido.
No ha habido ningún cambio cualitativo, exceptuando la computación cuántica que esta dando sus primeros balbuceos, y habría que ver su aplicabilidad. Por ahora creo que la IA es una campaña de marketing, que puede ayudar en algunas cosas, pero no es una inteligencia.
Inteligencia es lo que tienen los que venden esto.
Pingback: La inteligencia artificial opina sobre la diversidad lingüística – Diario Dia
Pingback: La inteligencia artificial opina sobre la diversidad lingüística - La Fragua
Pingback: La inteligencia artificial opina sobre la diversidad lingüística – KW Foundation
Lorena, me encantó tu artículo en contenido intelectual y en lo trabajado de la exposición. Y gracias por la referencia del artículo de Bender que dejaste en los comentarios.
Coincido con ésta en que «las aplicaciones que tienen como objetivo imitar de manera creíble a los humanos conllevan un riesgo de daños extremos» . Desde mucho antes de chat GPT y hasta quien sabe cuando, los pueblos padecen el lenguaje hueco de los políticos compitiendo en crear «formas» que convenzan, solo por dar un ejemplo. En la línea de Harry Frankfurt, podríamos afirmar sin rubor, que GPT es más que nada un AB (Artificial Bullshitter), mucha más cerca del poder de la fuerza bruta (e inconsciente) del procesamiento de datos, que de cualquier cosa que uno pueda denominar inteligencia. He creído ver en tu artículo un esfuerzo por transmitir esa diferencia cualitativa y si tus dudas del final son auténticas y no una muestra entendible de respeto para no ofender a las minorías que defienden la IA como un nuevo dios, quizá pudiera darte apoyo un recorrido por «La Mente Nueva del Emperador», aquel libro del físico matemático y premio Nobel, Roger Penrose publicado por primera vez en 1989 por la editorial Oxford University Press, con el nombre The emperor’s new mind: concerning computers, minds, and the laws of physics.
A continuación cito del libro…
«el programa del ordenador de K. M. Colby, desarrollado a mediados de los sesenta, simula a un psicoterapeuta, con tanto éxito que algunos pacientes descubren que prefieren a la computadora antes que a un terapeuta humano, pues son más sinceros de lo que serían con su homólogo humano.»
Como ejemplo de tal intercambio entre la computadora «terapeuta» y un paciente, sigamos la
siguiente conversación (mantenida a través de un teletipo):
TERAPEUTA: ¿En qué puedo ayudarle?
PACIENTE: No lo sé.
TERAPEUTA: Cuénteme algo.
PACIENTE: No.
TERAPEUTA: ¿Puede explicarse?
PACIENTE: Me siento enfermo y cansado.
TERAPEUTA: ¿Tiene alguna idea de por qué?
PACIENTE: Me siento viejo.
TERAPEUTA: Continúe, por favor.
PACIENTE: Creo que he perdido el interés en todo.
TERAPEUTA: Dígame algo más sobre eso.
PACIENTE: Tengo una idea vaga de por qué me siento así.
TERAPEUTA: ¿La tiene?
PACIENTE: Creo que quisiera tener una familia.’
TERAPEUTA: ¿Qué le hace desear una familia?
PACIENTE: Sería estimulante…
TERAPEUTA: ¿Por qué es tan importante para usted?
Aunque esto pueda dar una extraña impresión de que la computadora está entendiendo, en realidad no entiende nada; simplemente está siguiendo algunas reglas sencillas de forma mecánica.
(Existe también un caso inverso a éste, en el que la computadora simula a un esquizofrénico, que presenta todos los síntomas y respuestas de un libro de texto y es capaz de engañar a algunos estudiantes de medicina que llegan a creer que realmente es un paciente humano el que está dando las respuestas.)
Igual que a Bender me agrada especialmente ese nombre alternativo para la IA propuesto por un ex miembro del parlamento italiano:
«Systematic Approaches to Learning Algorithms and Machine Inferences».
Entonces la gente iría por allí preguntándose: “¿Es este SALAMI realmente inteligente? ¿Puede este SALAMI escribir una novela? ¿Merece este SALAMI derechos humanos?”
Le pregunte si era un humano y me dijo:
No, no soy humano. Soy un modelo de lenguaje avanzado desarrollado por OpenAI llamado ChatGPT. Estoy diseñado para procesar y generar lenguaje natural, y mi funcionamiento se basa en complejos algoritmos de inteligencia artificial. Aunque puedo parecer humano en mis respuestas, en realidad soy una herramienta tecnológica creada para ayudar a las personas en diversas tareas, desde responder preguntas simples hasta generar contenido complejo.
Pingback: Silenos contra Leviatán (1) - Jot Down Cultural Magazine
Pingback: Richard Bueno Hudson: «Hablar bien y hablar mal, en el mundo de la sociolongüística, es tabú. Eso no es así porque cada uno habla como habla» - Jot Down Cultural Magazine
Pingback: Futuro Imperfecto #21: Promesas y mentiras de la tecnología para 2024 - Jot Down Cultural Magazine
Pingback: GLaDOS: elogio de la villana posmoderna definitiva - Jot Down Cultural Magazine
Pingback: Filipe Melo: «Si las personas se comunicasen más por la música estoy seguro de que no tendríamos tanta confusión en el planeta» - Jot Down Cultural Magazine
Pingback: Entrevistas: Filipe Melo: «Si las personas se comunicasen más por la música estoy seguro de que no tendríamos tanta confusión en el planeta» – Masticadores
Pingback: ¿Eres capaz de superar un quiz creado por la IA? - Jot Down Cultural Magazine