La Inteligencia Artificial Generativa, IA gen, se está convirtiendo en el recurso del que todos queremos aprender. Sin importar cual sea el uso que le damos – creación de nuevos contenidos, conversaciones, asistente, imágenes, videos, música – en el centro están los prompts; esas instrucciones que le damos a la IA para que haga, como queremos, lo que le estamos pidiendo.
Debo iniciar diciendo que no estoy de acuerdo con el término ingeniería de prompts. La ingeniería es una exageración, especialmente si se compara con disciplinas de ingeniería más tradicionales. Aunque la ingeniería de prompts implica la elaboración y el perfeccionamiento de entradas para mejorar las salidas de los modelos de IA, no suele implicar el mismo nivel técnico, cálculos matemáticos o construcciones asociados a campos de la ingeniería. Pero usemos el término que está tan de moda.
La ingeniería de prompts se refiere a las técnicas que se aplican a los modelos de lenguaje generativo, como ChatGPT, para influir en el tipo y contenido de sus respuestas. Al diseñar un prompt, se pueden controlar elementos como el tono, el estilo, la longitud y el tema de la respuesta del modelo. Esto se logra eligiendo palabras clave, frases de inicio o incluso la estructura gramatical que guía al modelo en el proceso de generación.
Para muchos basta un simple comando y usan la IA como un buscador web. Para otros es más el arte de usar el lenguaje para buscar un producto a la medida. Pero, para todos, es recibir el resultado de lo que estoy pidiendo.
Hay muchas técnicas de ingeniería de prompts, estas pueden catalogarse como de las más populares.
El One-Shot-Prompting implica pedirle al modelo de lenguaje (LLM) que complete una tarea y proporcionarle un ejemplo específico de cómo debe realizarla. Por ejemplo, se le puede dar al modelo una plantilla y luego pedirle que redacte otra con diferentes condiciones, pero siguiendo la estructura del ejemplo.
Un caso práctico podría ser el siguiente: se le presenta al modelo el análisis de una hoja de cálculo. Luego, se le pide que desarrolle otra con requisitos básicos similares. El modelo responderá generando un nuevo análisis de la información solicitada.
Esta técnica también se puede utilizar para traducir texto, donde se le pasa una frase de ejemplo con su traducción, o para definir un estilo de escritura específico al proporcionar un ejemplo de texto con el estilo deseado.
La técnica Chain-Of-Thought, o cadena de pensamiento, se ha vuelto popular recientemente. Consiste en mostrarle al LLM cómo debe razonar para que su respuesta siga un proceso similar. Los LLM están optimizados para generar textos gramaticalmente correctos, pero no son muy eficientes para responder preguntas de lógica o matemáticas. Proporcionarles una guía sobre cómo deben estructurar su razonamiento puede mejorar significativamente los resultados.
Este ejemplo, desarrollado con Gemini, ilustra cómo funciona la Cadena de Pensamiento:
Prompt directo: "Si Juan tiene 10 manzanas, le da 4 a María y luego recibe 5 más, ¿cuántas manzanas tiene en total?"
Respuesta del modelo: "11"
Prompt con Chain-of-Thought (paso a paso): "Si Juan tiene 10 manzanas, le da 4 a María y luego recibe 5 más, ¿cuántas manzanas tiene en total? Pensemos paso a paso."
Respuesta del modelo:
Juan empieza con 10 manzanas.
Le da 4 a María, por lo que le quedan 10 - 4 = 6 manzanas.
Luego recibe 5 más, por lo que tiene 6 + 5 = 11 manzanas.
La respuesta final es 11.
Como se puede ver, al pedirle al modelo que "piense paso a paso", se le guía para que muestre su razonamiento, lo que no solo mejora la precisión de la respuesta, sino que también hace que el proceso sea más transparente y fácil de seguir.
Otra técnica popular es la Generación Aumentada por Recuperación, o RAG por sus siglas en inglés. Al igual que las otras técnicas de ingeniería de prompts, no requiere reentrenar el modelo. En su lugar, se le proporciona información adicional previamente almacenada en una base de datos y relacionada con la consulta del usuario.
Un ejemplo de RAG podría ser el desarrollo de un chatbot para una empresa que debe responder preguntas sobre proyectos pasados. Los pasos para este proceso son los siguientes:
El usuario envía un prompt al chatbot.
El prompt se usa para buscar documentos relevantes en una base de datos o en recursos web.
Estos documentos relacionados se añaden al prompt inicial como información extra.
El nuevo prompt, enriquecido con la información adicional, se envía al LLM.
El LLM genera una respuesta basada en este prompt enriquecido y se la muestra al usuario.
Por ejemplo, si un usuario pregunta por proyectos sociales con una duración de un año o menos, el sistema RAG buscaría los documentos que se ajusten a esa descripción, agregaría esa información al prompt inicial, y el LLM devolvería un resumen de los proyectos solicitados.
Generar un prompt que se ajuste a las necesidades es fundamental para obtener resultados precisos y útiles de un modelo de lenguaje. Un prompt bien diseñado es la clave para guiar a la IA hacia el tipo de respuesta que se busca. Un buen prompt evita ambigüedad, mejora la calidad, ahorra tiempo, controla el formato y dirige el tono y el estilo.
En esencia, un prompt bien diseñado es la diferencia entre obtener una respuesta genérica y una respuesta que realmente satisface el objetivo específico del usuario.
Ghosh, S. (2 de febrero de 2024). When Engineers Don't Engineer: The Paradox of Prompt Engineering. Medium. https://samiran-ghosh.medium.com/when-engineers-dont-engineer-the-paradox-of-prompt-engineering-6f77cb011faf
B., D. (16 de enero de 2025). Prompt Engineering: qué es y 15 técnicas eficaces + consejos. Hostinger. https://www.hostinger.es/tutoriales/prompt-engineering
Instituto Europeo de Posgrado. (s.f.). Transfer Learning, Fine Tuning y Técnicas de Explotación de LLMS . Instituto Europeo de Posgrado.