Hoy queremos presentar un concepto que nos parece que marca un antes y un después en la forma en que diseñamos prompts para LLMs: los Copilotos Adaptativos basados en Weakest Precondition. Bueno, quizás es mucho, pero si nos parece genial, y queríamos compartirlo.

¿Qué es una Weakest Precondition?

En términos simples, es la mínima instrucción necesaria para que un sistema produzca un resultado esperado. Este concepto, tomado de la programación formal, ahora lo aplicamos al prompting de IA:

¿Cuál es el prompt más corto y general que aún logra el resultado correcto?

Copilotos que se ajustan solos

Un Copiloto Adaptativo es un sistema que, al recibir un pedido (por ejemplo, “dame un resumen en JSON”), no usa un prompt fijo, sino que ajusta dinámicamente el suyo hasta encontrar el más eficiente posible que cumpla con el formato, el contenido y la intención del usuario. Este sistema que implementamos en Hubeet Copilot optimiza recursos, reduce costos de tokens, y mejora la robustez frente a inputs variados o inesperados.

¿Cómo lo hacemos?

  1. Inferimos o recibimos la estructura deseada (Q)
    Ej: un esquema de JSON, un ejemplo de salida, o simplemente un objetivo declarado.
  2. Generamos un prompt inicial mínimo
    Y lo enviamos al modelo.
  3. Evaluamos si la respuesta cumple Q
    Si no lo hace, reforzamos el prompt. Si lo hace, intentamos debilitarlo.
  4. Iteramos hasta encontrar la forma óptima
    Resultado: prompts inteligentes, autoadaptables y eficientes.
┌──────────────┐
│ Usuario      │
│ (input + Q)  │◄─────────────────────────────────────────────┐
└─────┬────────┘                                              │
      │                                                       │
      ▼                                                       │
┌──────────────┐      Prompt inicial (débil)                  │
│ Prompt Core  ├─────────────────────┐                        │
└─────┬────────┘                     │                        │
      │                              ▼                        │
      │                    ┌───────────────────────┐          │
      │                    │ Evaluador de Respuesta│          │
      │                    └─────────┬─────────────┘          │
      ▼                              │                        │
┌────────────────┐                   ▼                        │
│ Generador LLM  ├──────────────▶ Output                      │
└────────────────┘                   │                        │
                                     ▼                        │
                                ¿Cumple Q? ─────No────────────┘
                                     │
                                    Sí
                                     ▼
                         Retornar Output al Usuario

El verdadero poder no está solo en la inteligencia artificial, sino en cómo construimos los canales para hablar con ella. Y eso empieza con un buen prompt… o mejor dicho, con el prompt justo.


¿Querés explorar cómo esto puede transformar tu operación?Contactanos. El futuro ya está escuchando.