top of page

No hay que pedirle peras al olmo

  • Foto del escritor: Pablo Sciolla
    Pablo Sciolla
  • 29 jun
  • 4 Min. de lectura

Actualizado: 3 jul

Niño pidiéndole peras al olmo
Generada por IA

Se llamaba Blanca, y fue mi maestra de cuarto grado en el colegio República del Brasil de Mataderos. La recuerdo como una mujer que por un lado, reconocía y alentaba mi potencial académico; por otro, era severa con mis travesuras. Con el tiempo, he llegado a pensar que ni mi potencial era tanto, ni mis travesuras tan graves. Son recuerdos que el paso de los años han vuelto nebulosos. Incluso creo recordar su cara, aunque sospecho que esa imagen no es más que una construcción que mis propias redes neuronales naturales han sellado en mi memoria y que probablemente difieran de como ella efectivamente se veía.


Pero sí recuerdo que Blanca era prodigiosa en refranes. Parecía habérselos aprendido todos y los usaba siempre en clase. Fue con ella que por primera vez escuché un antiguo refrán cuyo origen desconozco: "no hay que pedirle peras al olmo". A mis nueve años no entendía que significaba, pero quedó en mi memoria y con el tiempo comprendí que se refiere a lo que en management solemos llamar "seteo de expectativas realistas". Un olmo, por su propia naturaleza, nunca podrá dar peras. Pretender lo contrario es ignorar su esencia y encaminarse hacia la decepción.


En el mundo actual de la inteligencia artificial, de avances muy acelerados, este refrán encuentra eco en nuestra interacción con los Modelos Grandes de Lenguaje (LLM), como GPT, Gemini y otros. A pesar de sus capacidades, existe cierta tendencia y, observo que creciente, a utilizarlos de manera inadecuada, exigiéndoles tareas para las que no fueron diseñados. Son, en principio, generadores de texto.


Los LLM son esencialmente motores de predicción de secuencias de texto que fueron entrenados con enormes cantidades de dicho texto y su principal fortaleza está en comprender y generar lenguaje humano en forma coherente y contextualmente relevante. Esto los convierte en muy buenas herramientas para la redacción de correos electrónicos, la creación de contenido, la traducción de idiomas y la respuesta a preguntas informativas. Sin embargo, esta misma fortaleza puede convertirse en su mayor debilidad si no se llega a comprender sus limitaciones.


Uno de los usos inadecuados más comunes es tratarlos como oráculos de la verdad absoluta. Algunos informes de consultoras mencionan que, en el mundo empresarial, la preocupación principal derivada del uso de los LLMs es la "inexactitud". ¿ Es válido pedirles que sean exactos o le estamos pidiendo peras al olmo ?. Los LLM no "saben" en el sentido humano; no poseen conciencia ni una comprensión del mundo real. Su "conocimiento" se basa en los patrones y las relaciones estadísticas presentes en los textos con los que fueron entrenados. Esto puede llevar a lo que se conoce como "alucinaciones": respuestas que suenan verídicas y bien estructuradas, pero que son falaces, factualmente incorrectas o inventadas. Pedirle a un LLM que ofrezca un diagnóstico médico preciso, asesoramiento financiero infalible o veredictos legales es, en efecto, pedirle peras al olmo. La ausencia de un razonamiento crítico y la incapacidad de verificar la información en tiempo real los hace inadecuados para tareas que requieren una precisión y fiabilidad que no se pueda cuestionar.


Otro error frecuente es delegarles por completo tareas que requieren un juicio ético o una profunda comprensión emocional . Si bien un LLM puede generar un texto que imite la empatía, no tiene sentimientos genuinos. Apoyarse completamente en los LLMs para tomar decisiones complejas en recursos humanos, moderar contenido sensible sin supervisión humana o proporcionar apoyo psicológico puede tener consecuencias negativas. La sutileza del lenguaje humano, el sarcasmo, la ironía y el contexto cultural suelen escapar a su alcance, lo que puede dar lugar a respuestas inapropiadas.


Hoy en día estamos escuchando insistentemente - y en mi caso, hablando - sobre "agentes de inteligencia artificial". No debemos confundir los LLMs con dichos agentes . No son lo mismo, aunque un agente pueda apoyarse en LLMs. Un agente tiene la capacidad de percibir, decidir y actuar, imitando nuestras capacidades cognitivas como humanos. Un LLM puede ser un componente importante de un agente: un motor de inferencia y generación de lenguaje. Pero un agente de IA es un sistema más completo y autónomo que puede utilizar un LLM como si fuera su núcleo para perseguir un objetivo, pero también podría utilizar otras técnicas algorítmicas.


En conclusión, los LLMs son una tecnología con mucho potencial de aplicación, en particular en el ámbito empresarial. Sin embargo, como con cualquier herramienta, debemos entender tanto sus fortalezas como sus limitaciones. No tenemos que dejarnos deslumbrar por su elocuencia al punto de exigirles lo que no pueden ofrecer. En lugar de pedirle peras al olmo, tenemos que aprender a apreciar los frutos que sí puede darnos: una enorme capacidad de procesar, comprender y generar lenguaje que, utilizada de manera responsable y con las expectativas adecuadas, puede aumentar nuestras propias capacidades de formas que apenas comenzamos a imaginar. Como siempre, la clave no está en la herramienta en sí, sino en en cómo la utilizamos. Los LLMs pretender saber de todo, pero tienen limitaciones y las tenemos que conocer. Porque como también le escuchaba decir a Blanca, "el que mucho abarca, poco aprieta".


Comentarios


© 2025 Creado para Pablo Sciolla

bottom of page