Se ha convertido en un tema tendencia: en Internet proliferan vídeos, formaciones y guías de buenas prácticas dedicadas íntegramente al prompt engineering, ese arte de formular prompts para una IA de lenguaje natural de la manera más optimizada posible. Ya consolidada como una habilidad muy demandada, esta serie de técnicas merece toda la atención de los ingenieros IT. Aquí tienes un tutorial para adentrarte en este mundo.
TUTORIAL
Paso 1: entender las necesidades del mercado laboral en prompt engineering
Una simple búsqueda en los portales de empleo especializados en IT muestra un concepto cada vez más recurrente: el prompt engineering. Cada vez más empresas exigen experiencia —o al menos conocimiento— en estas técnicas, que consisten en mejorar y optimizar los prompts dirigidos a un modelo de lenguaje natural. Este requisito aparece tanto en ofertas para machine learning engineers o data scientists, como en posiciones más específicas de desarrolladores IA/LLM. En estos casos, el prompt engineering se vincula directamente al manejo de APIs de OpenAI, Anthropic o Mistral, para crear herramientas internas basadas en modelos comerciales.
Aunque el gran “buzz” de 2023 alrededor del puesto de prompt engineer (Antropic llegó a publicar una oferta espectacular centrada únicamente en redactar prompts) no se refleja hoy como un rol consolidado en el mercado, saber utilizar un LLM de forma óptima se valora enormemente en las empresas que buscan aumentar su productividad gracias a la IA.
A primera vista, redactar un prompt puede parecer algo intuitivo; sin embargo, la lógica interna de los modelos de lenguaje se acerca mucho a la estructura de un código. Así, un ingeniero IT puede abordar los prompts como módulos reutilizables, testeables y documentables, igual que cualquier componente técnico de un proyecto.
Paso 2: analizar las necesidades del negocio para elegir la formación y el enfoque adecuados
El uso de la IA en las empresas cubre realidades muy diversas en 2025. Y cada una requiere técnicas específicas, empezando por la elección entre utilizar un modelo preentrenado o desarrollar un LLM propio adaptado al negocio.
En ecommerce, por ejemplo, un chatbot exige dominar la estructuración en JSON —la IA debe recuperar elementos concretos de los logs— y conocer técnicas de retrieval augmented generation, que permiten hacer la IA más contextual recuperando información relevante durante la conversación. Por otro lado, los LLM orientados a industria —como los que procesan datos de sensores, monitorización avanzada o soporte a la decisión— requieren más bien familiarizarse con frameworks de integración como LangChain.
Antes de empezar con prompt engineering, un desarrollador debe tener claro qué herramienta encaja mejor con las necesidades del negocio.
Paso 3: aprender a estructurar, securizar e industrializar los prompts
Existen varios prerrequisitos para trabajar con prompt engineering en entornos IT. Para comenzar, conocer ciertos lenguajes usados de manera generativa por los LLM facilita comprender su lógica interna. Como mínimo, es recomendable entender la estructura y los componentes de Python antes de empezar a redactar prompts complejos.
También entran en juego varias bibliotecas específicas, como LangChain, Outlines (para formatear salidas en Python) o TypeChat (Typescript/JSON), que permiten adaptar los resultados de las conversaciones a necesidades muy concretas.
Las fases de securización e industrialización de prompts son muy similares a las del desarrollo clásico: versionado, logs, tests, monitorización… Con repositorios GIT, los prompts pueden almacenarse como objetos, modificarse y reutilizarse según su rendimiento. Para la fase industrial, suites como LangSmith —integrada con LangChain— permiten generar logs, realizar tests y comparar resultados para afinar modelos.
Paso 4: elegir la IA adecuada para redactar prompts
Hoy en día, el propio prompt engineering puede optimizarse… ¡gracias a la IA! Formarse en esta disciplina implica también aprender a automatizar la generación de prompts a través de un modelo de lenguaje natural.
A esto se le llama metaprompting: generar prompts automáticamente, evaluarlos y repetir el proceso de manera iterativa. Este enfoque permite identificar patrones de uso con modelos preentrenados, crear guías internas y diseñar plantillas de prompts optimizados para el negocio.
Paso 5: formarse en prompt engineering
Tanto aprender prompt engineering como desarrollar un LLM propio exige una documentación sólida: el ingeniero o desarrollador deberá formar posteriormente a los usuarios finales de chatbots, herramientas de monitorización o sistemas de ayuda a la decisión basados en IA.
En un contexto donde la transformación digital avanza en todos los sectores, el prompt engineering comienza a extenderse entre los desarrolladores… pero también entre los usuarios finales. Ellos pueden apoyarse en el conocimiento del departamento IT para integrar plantillas de prompts en sus tareas del día a día. El rol del ingeniero es clave para maximizar la optimización de los LLM en la empresa.