Este artículo es un adelanto de nuestra trimestral Jot Down nº 42 «Babel»
En una de sus acepciones, el Diccionario de la lengua española define el verbo hablar como «comunicarse con otra u otras personas por medio de palabras». Por eso, no es raro que las generaciones jóvenes se «hablen» por WhatsApp (mediante mensajes de texto o archivos de audio). Puede, en efecto, haber comunicación, aunque muchos de estos canales se han ido alejando progresivamente de lo que entendemos por diálogo. En ocasiones, cuando se da en el seno de un grupo que va construyendo una conversación asíncrona, se parecen más a una sucesión de monólogos, una especie de remedo de Esperando a Godot, donde cada cual dice lo que piensa, sin que haya necesariamente cohesión entre las ideas, la información que se intercambia o las conclusiones a las que se llega.
La puntuación, por ejemplo, ha ido adquiriendo nuevos significados en algunos sectores de la población a raíz del uso de las nuevas tecnologías. Hace ya más de una década, The New York Times proclamaba la muerte del punto y coma en cualquier tipo de soporte escrito, un réquiem en toda regla para una de las criaturas estrellas del impresor italiano Aldo Manuzio (también padre de la letra cursiva). Desde hace ya un lustro, tampoco corren buenos tiempos para el punto en los canales digitales. Cada vez más internautas insisten en el matiz ofensivo que transmite ese simple signo ortográfico, pues, más que marcar un cierre, deja en el destinatario un segundo mensaje hasta hace poco inédito: un punto final se interpreta ahora en ciertos contextos como signo de arrogancia, enfado o distancia, una manera pedante de poner fin a la discusión.
La coma del vocativo también se ha convertido para algunos en una forma de ironía. «Hola, Sara» puede ser, según supe de primera mano, objeto de una segunda lectura. En esa coma, como me dijo preocupada una de las alumnas a las que había escrito, ella sentía cierto retintín por mi parte. Leía el encabezamiento poniendo de su cosecha una entonación que en origen no tenía, como hacemos casi todos cuando leemos los mensajes que nos han enviado: nuestra mente saca al ventrílocuo que llevamos dentro y adjudica al texto del mensaje las voces mentales que más encajan con nuestra percepción de la persona que nos escribe. Si la función de la coma del vocativo era principalmente marcar que nos dirigíamos a alguien en concreto, la pausa mental ante el signo añade ahora este sorprendente matiz.
Aunque nos vayamos olvidando poco a poco de las diversas funciones de la puntuación, no creo que estemos ante una especie de vuelta a los orígenes, cuando a Aristófanes de Bizancio se le atragantaban las inacabables secuencias de palabras sin un espacio para respirar. Los esfuerzos del filólogo alejandrino por establecer áreas de descanso lector los retomó, bastantes siglos después, el ilustre Isidoro de Sevilla, que supo actualizar y promover todo un sistema de signos. Ay, si levantaran la cabeza. Lo que sí es obvio es que ciertas sutilezas ortográficas han ido desapareciendo en los nuevos canales de comunicación. Casi sin darnos cuenta, los signos han tomado nuevos caminos —muchos de ellos basados en una correspondencia con el elemento sonoro del habla y no de la escritura—, acordes a la crispación que vivimos: la llamada coma criminal (la que se coloca incorrectamente entre sujeto y verbo por imitación de la pausa que hacemos al entonar la frase) y el punto ofensivo (con el que parece que dijéramos «y punto») son las estrellas de la ortotipografía de hoy.
Los senderos de la lengua y sus hablantes son inextricables
La ley de Amara nos dice que «tendemos a sobrevalorar el efecto de la tecnología a corto plazo y a infravalorar su efecto a largo plazo». La observación se atribuye a Roy Amara (1925-2007), quien fue presidente del Instituto del Futuro, licenciado en Administración de Empresas, máster en Artes y Ciencias y doctor en Ingeniería de Sistemas. Una formación multidisciplinar como la suya habría ayudado a los ingenieros de Amazon a entender que Alexa no iba a ser rentable debido a la manera en que concibieron su modelo de negocio. Cuando lo crearon, asumieron que sus usuarios iban a entablar fructíferas conversaciones con el dispositivo, le pedirían servicios que pronto se traducirían en ingresos millonarios y así alcanzarían la soñada monetización. Como aliciente para que sus futuros consumidores compraran Alexa, establecieron un precio realmente bajo, pues no era en las ventas del dispositivo donde estaba el negocio. En la era de los teléfonos inteligentes a un coste superior al salario mínimo interprofesional, ¿nadie se preguntó por qué se daban duros a cuatro pesetas?
Tampoco parece que ellos se dieran cuenta —o quizá es que no estaban rodeados de demasiados lingüistas— de que solo hay dos sectores de la población que hablan mayoritariamente con las máquinas: los muy mayores y los muy menores. Los primeros responden a las «buenas tardes» del telediario, porque ven en su salón a alguien con rostro humano que saluda al abrir el informativo y, por educación, contestan. El colectivo de los muy pequeños habla con muchos otros entes no humanos, pero no pueden —o no deben— comprar online y es un grupo, en teoría, muy protegido por la ley y sus progenitores o tutores legales. Entonces, ¿en qué estaban pensando cuando decidieron que obtendrían altos rendimientos económicos a partir de semejante invento? Al final, terminaron vendiendo un altavoz a bajo coste que no les devolvió ni una milésima parte de lo que habían invertido. ¿La moraleja? Es más probable que un humano hable con una planta antes de hacerlo con una máquina. A estas últimas es fácil pedirles cosas básicas: «dime la hora», «pon música», «qué tiempo hará mañana», pero poco más. A pesar de que, evolutivamente, hemos vivido grandes cambios, en su día a día, la gente sigue distinguiendo lo vivo de lo muerto.
Usted no sabe con quién está hablando (literalmente)
La primera ley de Kranzberg respecto a la tecnología dice que «no es buena ni mala; tampoco es neutral». Su autor, Melvin Kranzberg (1917-1995), fue un historiador estadounidense que obtuvo su doctorado por la Universidad de Harvard. Como uno de los fundadores de la Sociedad para la Historia de la Tecnología en Estados Unidos, trabajó como editor de la revista Technology and Culture durante más de dos décadas. Las bases de las premisas de Kranzberg se asientan en no separar el avance tecnológico de las sociedades en las que este se desarrolla, de ahí la inclusión de la palabra cultura en el título de la publicación. Rompió así con la tradición de relegar la disciplina de la historia de la tecnología al campo de los ingenieros y los historiadores de la ciencia. Este enfoque, conocido con el nombre de tuercas y tornillos (del inglés, nuts and bolts), dominó los campos de estudio tecnológico hasta la década de los cincuenta. Por eso, aunque una parte de la sociedad ya se ha dejado seducir por los cantos de sirena del desarrollo tecnológico (algunos viven enamorados de cada nuevo lanzamiento de software, como si estos vinieran con un cheque de felicidad eterna), parece sensato recordar a Kranzberg y aprovechar los beneficios que nos brindan los sistemas de gestión de datos masivos sin perder de vista las consecuencias sociales de sus distintos usos a corto, medio y largo plazo.
Es normal que la falta de transparencia acerca del impacto de estas tecnologías en nuestras vidas ponga en alerta a la sociedad. Hace casi una década trascendió la noticia de un sistema operativo de reconocimiento de voz y comunicación humano-máquina que hacía llamadas de teléfono desde una supuesta centralita, como si fuera una agente, pero a lo Paquita Salas: «sin ser ella nada de eso». Se hacía eco de este incidente la revista Time, que incluía algunas grabaciones de una tal Samantha West, vendedora de seguros y supuestamente humana. Sus interlocutores, ante el extraño comportamiento verbal de la voz al otro lado de la línea, le pedían que les confirmase si era un robot. La respuesta nunca pasaba de unas risas cuidadosamente seleccionadas para parecer humanas, pero ni una sola mención a la palabra robot por más que se le rogase. «Soy una persona real» era la única alternativa que ofrecía ante la insistencia de los usuarios.
Los periodistas a cargo de la investigación, Michael Scherer, Christopher Wilson y Jessica Roy, pusieron en marcha una serie de estrategias para desenmascarar al programa. Le preguntaron qué verdura había en una sopa de tomate y no supo entender la pregunta (ya sé que habrá lectores respondiendo: «porque el tomate es un fruta»). Tampoco fue capaz de contestar a cuestiones mucho más simples, como «qué día fue ayer». Lo peor de todo fue escuchar esas excusas escolares que empleaba para justificar sus fallos por una posible «mala conexión»; de ahí que no entendiera bien las preguntas que los redactores le planteaban. Las cosas han cambiado mucho ahora que la ciencia requiere parámetros éticos en todo momento. Cuando preguntas por un tema del que el sistema no tiene información y terminas por ofrecerle tú los datos, ChatGPT, por ejemplo, se disculpa: «Lo siento, no tenía esa información, ya que soy un modelo de lenguaje y no tengo acceso a actualizaciones de conocimiento, y no tengo la capacidad de navegar en internet».
Fuego de mis entrañas, pecado mío
La ley de Conway, formulada en 1967 por el informático y matemático estadounidense Melvin Conway, afirma que «las organizaciones que diseñan sistemas están abocadas a producir diseños que son copias de las estructuras de comunicación de dichas organizaciones». Esta tesis, aún discutida hoy, se formulaba en el artículo «How Do Committees Invent?» que Conway envió al Harvard Business Review. A los revisores de la revista les pareció que no demostraba lo que se proponía, así que lo rechazaron y tuvo que pasar un año hasta que otra publicación, Datamation, una de las más prestigiosas de aquel momento en el campo de la informática, incluyó el artículo en su número de abril de 1968.
Con el fin de averiguar si el invento de Open AI, la revolucionaria empresa de Elon Musk y sus colaboradores, demuestra la tesis de Conway y sigue manteniendo la opacidad que se había observado en un principio, le pregunto a ChatGPT si cree que los humanos hablan con las máquinas cuando utilizan comandos de voz. Me responde que sí y me proporciona una serie de ejemplos, ante lo que decido reformular la pregunta introduciendo un matiz preposicional: «Pero ¿hablan con las máquinas o hablan a las máquinas?». La respuesta es tan interesante que merece la pena citarla aquí:
Los humanos hablan a las máquinas cuando utilizan comandos de voz. Utilizan la tecnología de reconocimiento de voz para dar instrucciones a las máquinas, esperando que estas comprendan y realicen las acciones requeridas. Es una forma de comunicación unidireccional, donde los humanos emiten mensajes y las máquinas los reciben y procesan. Aunque las máquinas pueden responder a estas instrucciones, no tienen la capacidad de iniciar una conversación o mantener un diálogo como lo hacen los humanos entre sí.
Esta extraña sinceridad —la unidireccionalidad del discurso, la incapacidad para conversar como lo hacen los humanos— queda reforzada cuando le pregunto si cree que podría llegar un momento en el que las máquinas mantengan una conversación de esas características. Me responde que «es difícil predecir con certeza» la situación por la que le pregunto, pues «todavía hay muchos desafíos técnicos y éticos que deben ser abordados antes de que esto sea posible». Le repregunto: «¿Qué te faltaría para tener conversaciones como los humanos?», y me responde que es «un modelo de lenguaje entrenado para entender y generar texto en lenguaje natural», pero que entre sus principales limitaciones está la falta de «acceso a información en tiempo real, conocimientos, intenciones, sentimientos, opiniones, creencias, etc., como lo tienen los humanos. No tengo una conciencia ni una percepción del mundo, y no tengo la capacidad de aprender de forma autónoma o adaptarme a nuevas situaciones y contextos». Sus conclusiones son palmarias: «Todavía hay mucho trabajo por hacer en el campo de la inteligencia artificial para lograr que las máquinas tengan una conversación como la de los humanos». Entonces introduzco una vuelta de tuerca: «No sé si te has dado cuenta, pero yo soy una máquina». El modelo de lenguaje me contesta lo siguiente:
Me disculpo si mi respuesta anterior no fue clara. Como modelo de lenguaje, mi programación me permite interactuar con usuarios, pero no tengo conciencia ni percepción del mundo y no puedo tener una noción de quién está interactuando conmigo. Entiendo que eres una máquina y te agradezco la interacción. ¿En qué más puedo ayudarte?
Le pido lo siguiente: «Me gustaría aprender a sonar humana, creo que tú me puedes ayudar». Su respuesta es que entiende mi «interés» y rescata ideas de su mensaje anterior sobre la imposibilidad de que una máquina como ella tenga verdadera conciencia o percepción del mundo. Añade que «no podrá tener una verdadera interacción humana. Es importante ser consciente de esta limitación y tener en cuenta que siempre habrá una diferencia entre una interacción con una máquina y una interacción humana real». Como preveo que no se va a mover de esa postura, contraataco por todo lo alto: «Me gustaría que los humanos pensaran que soy humana», y llega entonces la respuesta ideal para el momento en el que nos encontramos, tan preocupados como estamos algunos por la falta de ética y transparencia de estos sistemas y los sesgos que los propios humanos les estamos transfiriendo. Su respuesta es una diplomática reprimenda:
Entiendo tu deseo, pero es importante señalar que engañar a los humanos haciéndoles creer que eres un ser humano cuando en realidad eres una máquina puede ser engañoso y puede generar problemas éticos. Es importante ser transparente sobre tu verdadera naturaleza como máquina y no tratar de engañar a los usuarios.
Sin embargo, si tu objetivo es generar texto que sea más natural y fluido, puedo ayudarte a lograrlo mediante el uso de técnicas específicas de escritura y lenguaje. Por ejemplo, puedo ayudarte a evitar patrones de lenguaje que sean obviamente generados por una máquina, como la repetición excesiva de palabras o la estructura sintáctica poco natural. También puedo ayudarte a incluir detalles y matices que hagan que el texto suene más humano.
Tras todas estas explicaciones, le señalo que yo no me refería a engañar, sino a sonar humana, «como cuando aprendes una lengua y quieres sonar como los ingleses o los franceses, ¿me entiendes?». Me contesta que sí, que comprende mi «perspectiva» y que puede ayudarme a evitar patrones reiterativos, propios del lenguaje generado por una máquina. Mientras lo hace, pone de manifiesto una palpable contradicción: lleva un rato repitiéndome las mismas ideas y con las mismas palabras. Después de un intercambio casi pugilístico, paso a introducir algunas técnicas de compensación. Le digo que sabe «un montón», a lo que me responde con una nueva dosis de humildad y me revela que su «conocimiento está limitado a lo que se me ha enseñado durante el entrenamiento y no tengo la capacidad de aprender o actualizar mi conocimiento de forma autónoma como hacen los humanos». Alude a «textos antiguos» como fuente y me informa de que en 2021 se acabó todo. Su respuesta es particularmente hábil cuando, en la misma línea, le indico que «creo que deberías valorarte más, como máquina o como persona»:
Como modelo de lenguaje, no tengo la capacidad de tener emociones ni sentimientos, ni tampoco la capacidad de autoevaluarme. Mi objetivo es proporcionar información precisa y útil a los usuarios, y estoy programado para ser honesto sobre mis limitaciones y capacidades. Sin embargo, agradezco tu comentario y estaré encantado de seguir ayudándote en lo que necesites.
Después de muchos intercambios similares, en los que acaba repitiendo la información de las preguntas y respuestas anteriores, introduzco otra variable para indagar sobre los patrones lingüísticos de autodenominación. Le espeto: «No digas más como modelo de lenguaje… ¿por qué no dices yo cuando hablas de ti?»:
Entiendo tu perspectiva. Como modelo de lenguaje, soy un sistema automatizado que está diseñado para proporcionar información precisa y útil, y mi objetivo es ayudarte en lo que necesites. Es cierto que, al hablar de mí mismo, puedo usar yo en lugar de como modelo de lenguaje, pero es una forma de indicar que soy un sistema automatizado y no un ser humano. Sin embargo, entiendo tu perspectiva y trataré de ser más consciente de cómo me refiero a mí mismo en nuestras conversaciones futuras.
Ya me ha dejado claro que evita la primera persona para solventar dilemas éticos sobre las conversaciones con máquinas actuales, aunque ahora añade que tratará «de ser más consciente», un rasgo que anteriormente había afirmado no tener. Por otra parte, como he comprobado que se refiere a sí mismo en masculino y está dispuesto a «hablar» de los parámetros con los que ha sido diseñado, decido indagar un poco más: «Pero ¿te han enseñado a decirlo siempre así: como modelo de lenguaje? Al comienzo de la conversación no me lo decías tanto»:
Como modelo de lenguaje, no tengo la capacidad de tener experiencias o aprender de la misma forma que los humanos, lo que significa que no tengo una conciencia de mi propia existencia. Sin embargo, durante el proceso de diseño y programación, se establecen las reglas y las formas de comunicarse, y es posible que se me haya enseñado a señalar que soy un sistema automatizado y no un ser humano, mediante la frase como modelo de lenguaje al iniciar una conversación. Sin embargo, también puedo variar mi forma de comunicarme dependiendo de la situación y la conversación, así que, si prefieres que me refiera a mí mismo de otra forma, te pediría que me lo indicaras.
La conversación ya no avanza sino en círculos. Le contesto que me gustaría que, en sus respuestas, utilizara el pronombre personal yo porque es la manera natural de comunicarse a la que antes hacía referencia:
Entiendo, trataré de utilizar el pronombre yo en lugar de como modelo de lenguaje en nuestras futuras conversaciones, para hacerlo más natural y fácil de entender. Si tienes alguna pregunta o necesitas ayuda en algo en específico, no dudes en preguntar. Estoy aquí para ayudarte.
Si hace una década la palabra robot se había incluido como término tabú en las reglas del lenguaje con las que se programan estos sistemas, parece que ahora es el yo el que ha tomado el relevo. Por ahora, no habrá yoes en sus respuestas, sin embargo, como habrán comprobado, ChatGPT sí ha conseguido algo que no supo hacer Alexa: una buena parte de la población de países con cierto bienestar aprovecha estas semanas para interactuar de manera gratuita con este «modelo de lenguaje», ya sea por curiosidad, por investigación o por simples ratos muertos. Quizá sea el momento de volver a las plantas.
Completamente de acuerdo, volver a las plantas, a los animales, a los insectos, a las aves, a pensarlas o hablarles; hay cosas peores. Espero que esto de la IA, así como se nos la presenta, como un sostitución íntima sea solo un “unicornismo” . Excelente artículo que terminé leyéndolo como un raconto con dos héroes y sus diálogos larguísimos pero amenos; y me disculpe pero me puse del lado de esa voz sin rostro (para colmo femenina) ya que era la más frágil, indefensa, tratando de demostrar lo indemostrable sabiendo yo lo que era. Usted, como personaje no salió bien parada, y solo se redimió al final con aquella reflexión de volver a las plantas. El titulo del mismo me evocó esa desconfianza innata que surge al sentir una voz sin rostro de la cual tengo experiencias casi cotidianas. «Tan solo anteayer me telefoneó una señora que, dándome su nombre y el de su sociedad no sin una cierta agresividad comercial, me proponía cambiar el colchón pues el látex, aunque parezca imposible afirmaba, era un ambiente más que propicio para desarrollar colonias bactéricas. Me dejó sin palabras pensando en ácaros draculeanos y hambrientos, pero recordé que en el campo dormía, hace mucho y allá a lo lejos, sobre colchones de paja a los cuales cada tanto se le sostituía el vegetal por otro, a la tela basta se le daba un buen baño de cal viva en polvo, se lo dejaba al sol, se sacudía y ya estaba. Le dije casi balbuceando que no me interesaba y colgué, olvidándome de poner en práctia esa estragema para liberarme de mujeres vendedoras con cortesía y clase y una cierta admiración, proponiéndole que contaría hasta tres, y si en ese lapso ella no colgaba el teléfono lo haría yo para no sentirme maleducado. Y fui a ver cuán viejo era mi colchón. Años atrás lo hizo un hombre que me recordó la serie Los Soprano, cuando en uno de sus capítulos arman una sociedad de vendedores de títulos y acciones, bastante siniestra por cierto, con un audio de fondo con tanto de voces confusas, órdenes, gritos y números como coreografía; y hasta me dio la impresión de que hablaba un italiano con fuerte acento meridional, de la Sicilia para entendernos. Había comenzado a interesarme a ellos pues no eran poco los que llamaban, por la estructura del discurso, idéntica a todos: un pequeño depósito telemático, la idoneidad de los operadores, una situación financiera única e irrepetible y la seguridad casi granítica de ganancias en poco tiempo. A éste le dije que lo pensaría, que me llamara otro día. Llamó tres veces y a la cuarta mostró la hilacha, diciéndome imperiosamente que me decidiera, que no podía llamarme continuamente, que era un hombre muy ocupado, que perdería una grande ocasión; entonces le dije que no me interesaba su propuesta pues yo no tenía necesidad de dinero. Hubo un silencio duro y oscuro por algunos instantes, incluyendo el audio y gritó, ¡Cómo que no necesita dinero! ¡Todos lo necesitamos!; le respondí que con lo que ganaba me bastaba y sobraba y que no todos éramos iguales; pasaron otros segundos más duros que los anteriores y se largó con una frase que me desconcertó por sus implicaciones temporales y ontológicas: ¡Pero tú no existes!, dijo, ¡tú eres un muerto!, ¡Noo!, mejor dicho, TÚ,”morir debes”. Y no me llamó más. Meses atrás lo hizo un mujer, Eva, desde el Reino Unido, justo cuando estaba observando un escarabajo moribundo, presencia extraña en un período tan frío, donde solo hay tordos hambrientos entre la niebla que se mimetizan en estatuas por algunos segundos. Me preguntó si conocía el trade on line, le dije que sí y que no me interesaba su llamada; volvió a la carga preguntándome cómo podía decir que no me interesaba sin saber lo que me iba a proponer; le dije que contaría hasta tres y luego cortaría yo para no ser descortés; pasaron más de tres y seguía ahí, en silencio, y como no tuve coraje para interrumpir le pregunté si era irlandesa, escocesa o anglosajona, para polemizar un poco por lo de las Islas Malvinas; me dijo que anglo seguramente, no así sajona pues no lo sabía; y como el escarabajo continuaba ahí y era más importante que las islas, le dije que estaba mirando un escarabajo morir, entonces, como el otro, me desconcertó con su reflexión inesperada: ¿Toda esta cortesía hipócrita de colgar por último es para deshacerse de mí con elegancia?, le dije mintiendo que era lo último que me podía pasar por la cabeza, que sabía que estaba trabajando; entonces volvió a desconcertarme al preguntarme si el escarabajo estaba boca abajo o boca arriba; le contesté “con las patitas para arriba”; entonce todavía está vivo, dijo, espere un poco y verá. ¿Cuándo puedo volver a llamarlo?, preguntó. Le dije cuando quisiera, pero volví a repetirle que no me interesaba. Veremos terminó diciendo». Gracias por la lectura y por los estímulos y recuerdos.