Las máquinas de escribir que escriben solas
- Pablo Sciolla
- 15 jul
- 4 Min. de lectura
Actualizado: 16 jul

Vicente Di Gregorio se llamaba mi abuelo materno. Disfrutaba acompañarlo a su lugar de trabajo. Sus últimos años laborales los transcurrió en el antiguo Canal 11. Para un niño curioso suele resultar mágico acompañar a un mayor a su lugar de trabajo, pero había algo particular en este caso que hacía la experiencia más atrayente. En su pequeña oficina, a la izquierda de la entrada al Canal, había una máquina de escribir. Cada visita eran horas martillando con mis pequeños dedos índices esas pesadas teclas. Cuando lo pienso, lamento que mi profesora de Mecanografía en el primer año del secundario me haya hecho sufrir una materia basado en algo que yo disfrutaba tanto de chico.
Pero en el Canal, subiendo un par de pisos, no recuerdo cuantos, había algo aún más atrayente. En cada visita, insistía a mi abuelo conque me lleve a ver "las máquinas de escribir que escriben solas". Esas máquinas se llamaban teletipos. Recuerdo mi asombro cuando veía salir de esas máquinas el papel impreso con texto que llegaba de todas partes del mundo y que nutrían con material al noticiero.
Muchos años después, esa misma fascinación infantil vuelve a despertarse cada vez que interactúo con un modelo de lenguaje. Como aquellos teletipos que ‘escribían solos’ trayendo noticias del mundo, los modelos actuales —como GPT o Gemini — también escriben, pero a partir de lo que uno les dice. Solo que ahora no es una red de agencias de noticias la que les envía la información, sino que la fuente es todo el conocimiento que han incorporado en su entrenamiento. Lo que hoy llamamos prompt se parece al equivalente a encender el teletipo y pedirle una noticia específica. Y lo que obtenemos, el completion, es la secuencia de palabras que ese nuevo ‘teletipo inteligente’ genera en tiempo real. Pero un completion no es una respuesta.
Esta distinción entre “respuesta” y completion —permítanme conservar el término en inglés, ya que su traducción directa, "completado" no termina de sonar natural en este contexto — es esencial. Nos permite dejar de ver a los modelos de lenguaje como oráculos que todo lo saben, y empezar a comprenderlos por lo que realmente son: impresionantes generadores de texto, entrenados para predecir la próxima palabra más probable en función del contexto anterior.
Cuando formulamos una pregunta a un Modelo de Lenguaje (LLM, Large Language Model por sus siglas en inglés), no estamos iniciando un diálogo socrático con una conciencia racional a la que le formulamos preguntas y nos da respuestas. Lo que en realidad está ocurriendo es proporcionarle una secuencia de texto inicial - que se denomina prompt - y el LLM se limita a hacer aquello para lo que fue entrenado: predecir cuál es la siguiente palabra más probable para continuar esa secuencia. Y luego la siguiente, y la siguiente, hasta generar un párrafo coherente.
Pensemos en la función de autocompletar de un redactor de mail o del buscador en internet. Cuando escribimos "El clima en Buenos Aires es..." la frase se completa automáticamente. Y se completa a partir de que el sistema que responde ha procesado millones de texto e infiere que las palabras más probables son "soleado", "lluvioso" o "insoportablemente húmedo", siendo quizás ėsta la más probable. Un LLM tiene este mismo principio, pero el mecanismo de selección de dicha palabra tiene otras particularidades que dejo para algún eventual siguiente texto. Tiene otra sofisticación, que lo hace parecer extremadamente elocuente, casi milagroso tratándose de una máquina de escribir que escribe sola. Pero lo más importante: no ofrece una verdad, sino una continuación para el texto estadísticamente posible.
Comprender esta lógica cambia radicalmente la manera en la que debemos interactuar con estos modelos.
En primer lugar, la pregunta no es una pregunta sino un prompt, es decir, el inicio de un nuevo texto. Justamente el arte del "prompt engineering" - concepto que no termina de gustarme -, no trata de formular la pregunta perfecta, sino de darle al modelo el mejor comienzo posible del texto que queremos que complete - de allí, los términos prompt y completion -. En realidad, no le estamos pidiendo algo, sino le estamos dando el primer cincelazo a una escultura para que luego el LLM la complete.
Por otro lado, la alucinación no es un error, sino una característica de los LLMs. Es decir, no es que el sistema está fallando sino que es su funcionamiento normal. Si el modelo no encuentra en sus datos de entrenamiento una definición factual para nuestro prompt, no se detiene. Va a seguir tratando de completar la secuencia de la manera más coherente y verosímil posible, aunque eso implique "inventar". Los alumnos que han visto en mis clases el ejemplo de preguntarle a un LLM sobre la "Claringrilla" tienen un ejemplo de lo que refiero.
Esto enfatiza la importancia de la validación. Volviendo a la señorita Blanca, de mi artículo anterior, imagino que diría que "Un buen eco, necesita una buena voz". Nuestra voz es nuestro prompt, la intención que tenemos y el juicio crítico que aplicamos. El modelo de lenguaje no nos responderá, pero si aprendemos a darle el comienzo adecuado, podrá ayudarnos a completar nuestras ideas de una forma que hasta hace unos diez años no hubiese sido posible. La responsabilidad, como siempre, no es del eco, sino de la voz que la origina. Y si afinamos nuestra voz, el eco - por artificial que sea - puede volverse extremadamente útil.
.png)



Comentarios