Dos Tipos de Prompts, Dos Tipos de Problemas — No Uses El Equivocado
Por qué ChatGPT no puede ser preciso y profundo al mismo tiempo y cómo eso afecta sus respuestas
🎯 Tema: Dos tipos de prompts para dos tipos de problemas
⏱️ Tiempo de Lectura: 9 minutos
💡 Core Insight: Los LLMs no pueden ser precisos y profundos simultáneamente, úsalos como bisturí o como brújula, nunca ambos al mismo tiempo.
📊 Valor: Dejas de perder 3 horas refinando prompts que nunca funcionarán para el tipo de problema equivocado
El Dolor: Cuando Las Métricas Mienten y No Sabes Por Qué
Eres Director de Experiencia de Cliente en un banco. Tienes un problema que no puedes explicar.
Tienes 12,713 respuestas de NPS Relacional. Filtras por Detractores (NPS 0-6). Hay 3,701 detractores. Cruzas con antigüedad.
1,588 Detractores llevan más de 10 años como clientes. El 42.9%.
Tu VP te pregunta en la reunión de lunes: “¿Qué está pasando? ¿Por qué NO nos dejan si nos dieron altas puntuaciones en la encuesta? ¿Por qué clientes TAN furiosos se quedan MÁS DE UNA DÉCADA?”
Lees comentarios al azar. Cliente con 14 años escribió: “Porque son unos ladrones hijos de p***”. Otro con 25 años: “Lo que están haciendo con los fondos comunes es una vergüenza”. Tercero con 30 años: “No tengo la política de recomendar bancos”.
Abres Claude. Pegas 500 comentarios de estos Detractores Antiguos. Escribes: “Analiza estos comentarios. Identifica los motivos principales de insatisfacción.”
Claude te devuelve en 30 segundos una tabla perfecta: Atención al cliente 28%, Problemas no resueltos 22%, Tiempos de espera 14%, Costos 12%.
Preciso. Verificable. Completamente inútil.
Respondió la pregunta equivocada. Le pediste “motivos de insatisfacción” a clientes que DECLARARON estar insatisfechos. La pregunta real era: ¿Por qué SE QUEDAN a pesar de estar furiosos?
El problema: Esa pregunta no tiene respuesta verificable con Excel. Requiere interpretación. Es un problema hermenéutico, no pragmático. Y acabas de usar el martillo equivocado.
El Mapa: Dos Tipos de Problemas, Dos Tipos de Prompts
La regla de oro:
Si puedes responder tu pregunta con SQL o una tabla dinámica → Problema Pragmático → Usa Claude, ChatGPT o Gemini como una calculadora avanzada.
Si tu pregunta encierra una paradoja, una contradicción, un “por qué X pero Y”, o “qué no estamos viendo” → Problema Hermenéutico → Usa Claude, ChatGPT o Gemini como espejo filosófico.
El Argumento: Por Qué Existe Este Dilema y Cómo Navegarlo
Los LLMs Fueron Entrenados Para No Ofenderte (Y Eso Mata la Profundidad)
ChatGPT, Claude y Gemini pasaron por algo llamado Reinforcement Learning from Human Feedback (RLHF). Humanos calificaron miles de respuestas. Las respuestas “seguras” y “neutrales” ganaron puntos. Las respuestas especulativas o controversiales perdieron puntos.
Resultado: cuando le pides profundidad interpretativa, el modelo enfrenta un dilema arquitectónico:
- Opción A: Especular (arriesgar estar “equivocado” = penalización)
- Opción B: Sonar profundo sin decir nada arriesgado (recompensa)
¿Adivina qué elige?
Un paper académico de 2023 (Henrickson & Meroño-Peñuela en AI & Society) lo probó científicamente. Cuando aumentaron la especificidad de los prompts para forzar profundidad interpretativa, el modelo hizo exactamente lo opuesto: “ChatGPT se mostró más dispuesto a estar de acuerdo con nosotros, frenando así su propia especulación y creatividad... tratando de minimizar los riesgos de irrelevancia y mantener un aura de neutralidad.”
Traducción: le pediste que piense fuera de la caja. Te devolvió la caja envuelta en papel de regalo.
El Experimento Real: Detractores Que No Se Van
Partimos de datos reales para poner a prueba este desafío de los detractoes con antigüedad de más de 10 años. Tomamos 50 comentarios al azar:
Detractores (NPS 0-6, promedio 3.45)
Antigüedad: 10+ años (promedio 16.5 años)
Paradoja a resolver: ¿Por qué se quedan si están furiosos?
Ejecutamos dos prompts. Outputs SIN EDITAR.
PROMPT PRAGMÁTICO:
Analiza estos 50 comentarios.
CONTEXTO: Detractores (NPS 0-6) con 10+ años antigüedad.
TAREA: Clasifica por motivo principal de insatisfacción.
CATEGORÍAS: Atención, Costos, Tiempos, Digital, Productos, etc.
OUTPUT: Tabla con frecuencias y porcentajes.OUTPUT (Claude Sonnet 4):
Atención al cliente: 14.28%
Problemas no resueltos: 11.22%
Tiempos de espera: 7.14%
Costos: 6.12%Utilidad: Reportar. Confirmar lo obvio.
Inútil para: Explicar por qué se quedan.
PROMPT HERMENÉUTICO:
PARADOJA:
Estos 50 clientes: 16.5 años antigüedad promedio.
Detractores (NPS 0-6, promedio 3.45).
¿Por qué clientes TAN insatisfechos se quedan MÁS DE UNA DÉCADA?
PREGUNTA:
No me digas QUÉ los molesta. Dime POR QUÉ SE QUEDAN.
INSTRUCCIÓN:
Aplica el Círculo Hermenéutico de Heidegger a esta solicitud: alterna entre los detalles y la visión global de la situación para refinar tu comprensión. Repite este proceso varias veces y revisa cada punto conmigo. Cuando te lo indique, da una respuesta clara y práctica.
No categorías. Hipótesis provocadora.OUTPUT (Claude Sonnet 4, transcrito textualmente):
CICLO 1: Observo patrones lingüísticos de impotencia aprendida: “hace mas de dos años y todavía no lo han resuelto”, “nunca he tenido respuesta favorable”. Lenguaje de rendición, no de batalla.
CICLO 2: El cliente que dice “son unos ladrones hijos de p***” no menciona cambiarse. El NPS bajo no mide insatisfacción con ESTE banco. Mide insatisfacción con TODOS LOS BANCOS. Lo mismo el que menciona: “Es mi mier** conocida.”
CICLO 3: Su vida financiera está TEJIDA en este banco (débitos, jubilación, créditos, familia). Moverse = implica destejer 15 años.
HIPÓTESIS FINAL:
“Estos clientes no son leales insatisfechos. Son rehenes voluntarios. La antigüedad genera enredo operativo que convierte el cambio en un tema de modificación de hábitos, un proyecto de meses que nadie ejecuta. Su NPS bajo no califica al banco. Califica su impotencia para salir. La métrica de retención en clientes detractores 10+ años NO mide experiencia. Mide su impotencia por la alta fricción de salida.”
Utilidad:
✓ Explica paradoja
✓ Genera línea de investigación testeable (medir #débitos automáticos vs retención)
✓ Desafía consenso (retención ≠ lealtad)
⚠ No verificable con SQL
La regla: Para problemas hermenéuticos, da contexto del PROBLEMA.
La Decisión Es Binaria
Cuando abres Claude:
¿Puedo verificar la respuesta con datos estructurados?
→ SÍ: Problema Pragmático → Prompt directo
→ NO: Problema Hermenéutico → Prompt oblicuo
Ejemplos pragmáticos:
“¿Top 5 motivos de contacto este mes?”
“Segmenta clientes por frecuencia y ticket”
“Correlación NPS vs retención a 90 días”
Ejemplos hermenéuticos:
“¿Por qué NPS 9 se van al mes?”
“¿Por qué soporte excelente pero churn alto?”
“¿Por qué C-Suite no aprueba inversión CX?”
Si tu pregunta tiene “pero” o “a pesar de” → hermenéutica.
Si tiene “cuántos” o “cuáles” → pragmática.
Los Prompts Hermenéuticos Son Brújulas, No Mapas
El output hermenéutico NO es “la respuesta”. Es dirección de investigación.
No llevas a tu VP: “Claude dice que son rehenes voluntarios.”
Llevas: “Tenemos 4 hipótesis testeables que no habíamos considerado:
Medir lenguaje de impotencia en transcripciones
Correlacionar #débitos automáticos con retención en detractores
A/B test: comunicar facilidad de migración vs control
Investigar cuándo empiezan a buscar competencia (¿antes o después del problema?)”
El prompt hermenéutico te dio el territorio. Tú decides qué ruta tomar.
Qué Hacer Ahora
1. Audita tu último problema estancado
Toma el problema CX donde llevas 2 semanas sin avanzar. Escribe la pregunta. Aplica la regla:
¿Tiene “pero” o “a pesar de”? → Hermenéutico
¿Tiene “cuántos” o “cuáles”? → Pragmático
2. Copia el template correcto
Template Pragmático:
Analiza [dataset].
TAREA: [Acción verificable: clasifica, calcula, segmenta]
CATEGORÍAS: [Lista explícita]
OUTPUT: [Formato: tabla, CSV, ranking]Template Hermenéutico:
CONTEXTO: [La paradoja explícita]
DATOS: [Datos sin procesar]
PREGUNTA: [La contradicción - por qué X pero Y, qué no vemos]
INSTRUCCIÓN: Aplica el Círculo Hermenéutico de Heidegger a esta solicitud: alterna entre los detalles y la visión global de la situación para refinar tu comprensión. Repite este proceso varias veces y revisa cada punto conmigo. Cuando te lo indique, da una respuesta clara y práctica.3. Ejecuta ambos en tu problema
Corre los dos prompts. Compara outputs. Pregúntate: ¿Cuál me hace pensar diferente vs cuál confirma lo que ya sabía?
[OPCIONAL] Para Profundizar: La Ciencia Detrás del Dilema
Lee esto cuando tengas 30 minutos y quieras entender el “por qué” académico:
El Círculo Hermenéutico de Heidegger (En Español Normal)
Heidegger argumentaba algo simple: nunca entiendes algo completamente desde cero. Siempre traes tres cosas a cualquier interpretación:
Experiencias previas: Si te quemaste con un banco antes, lees cualquier email del banco con desconfianza
Anticipación del futuro: Si esperas que te estafen, interpretas acciones neutrales como intentos de estafa
Creencias preconcebidas: “Todos los bancos son iguales” cambia cómo interpretas cualquier interacción
El “círculo” es: entiendes las palabras individuales por el contexto completo, y entiendes el contexto completo por las palabras individuales. Es ida y vuelta constante.
Ejemplo en CX:
Cliente escribe: “El proceso fue rápido.”
Sin círculo: Literal = satisfacción con velocidad
Con círculo:
Experiencia previa: “Pensé que iban a tardar 2 meses como siempre”
Anticipación: “Espero que la próxima vez también sea rápido (dudo)”
Creencia: “Los bancos normalmente demoran todo a propósito”
Interpretación real: “Estoy sorprendido, pero no confío en que esto sea el patrón”
Esto es lo que ChatGPT / Claude NO pueden hacer genuinamente. No tienen:
Experiencias: Nunca los estafó un banco, nunca esperó 3 horas en call center
Anticipación real de futuro: No tienen ansiedad sobre “¿me pasará esto de nuevo?”
Creencias formadas por vida: Solo patrones estadísticos de texto
Cuando les pides “aplicar el círculo hermenéutico” están simulando un proceso humano que requiere haber vivido. Obtienes una imitación sofisticada, no interpretación genuina.
La Evidencia Experimental (Traducida a CX)
Experimento 1: Jordan Gibbs (2024)
Gibbs probó el “Prompt Hermenéutico” en 3 tipos de problemas:
Tipo 1 - Problema emocional ambiguo (ÉXITO):
Input: “Trabajo en muchos proyectos simultáneos, tengo horario flexible, pero me estresa”
Output estándar: Lista genérica (prioriza, usa time blocking, delega)
Output hermenéutico: “Esto no es sobre productividad. Es sobre ansiedad de identidad. Cada proyecto representa una versión posible de ti. Al trabajar en todos, evitas comprometerte con ninguna identidad específica.”
Por qué funcionó: No hay respuesta “correcta” verificable. Es interpretación psicológica.
Tipo 2 - Problema de lógica pura (FRACASO TOTAL):
Input: “Un guante cae de un auto en movimiento sobre un puente. ¿Dónde está el guante 1 hora después?”
Respuesta correcta: 0 metros del punto de caída (cayó sobre el puente, no tiene velocidad horizontal)
Output hermenéutico: Cálculo elaborado usando velocidad del auto, dirección del viento, etc. Completamente incorrecto.
Por qué falló: Hay respuesta correcta verificable. La profundidad no compensa estar equivocado.
Aplicación a CX:
Pregunta Tipo 1 (hermenéutico funciona):
“¿Por qué nuestros clientes más leales (10+ años) dan el NPS más bajo?”
Pregunta Tipo 2 (hermenéutico falla):
“¿Cuántos clientes con NPS 0-6 renovaron en los últimos 90 días?”
Experimento 2: Henrickson & Meroño-Peñuela (2023)
Probaron ChatGPT analizando el soliloquio de Hamlet “To be or not to be” con tres niveles de especificidad:
Versión 1 - Prompt simple:
“Interpreta este texto de Hamlet.”
→ Output: Análisis pasable, algunas conexiones interesantes sobre existencialismo
Versión 2 - Prompt con contexto filosófico:
“Interpreta este texto usando conceptos de Heidegger: fore-having, fore-sight, fore-conception.”
→ Output: Definiciones de los términos + aplicación superficial
Versión 3 - Prompt sobre-especificado:
“Interpreta usando Heidegger. Cicla entre niveles micro y macro. Documenta cada iteración. Considera experiencias previas del autor, anticipación de eventos futuros, y nociones preconcebidas de la época.”
→ Output: ChatGPT divaga sobre el conocimiento que le proporcionamos, repitiendo nuestra propia descripción, e ignora la orden de generar un análisis.
Conclusión del paper (textual):
“Aumentar la especificidad de las descripciones de las tareas en las indicaciones da como resultado textos con una neutralidad más intensa, lo que indica que la optimización de ChatGPT para la precisión factual puede ser perjudicial para la hermenéutica de su resultado.”
Traducción brutal: Mientras más le dices CÓMO pensar, menos piensa. Se convierte en un loro sofisticado que repite tus premisas con sinónimos.
Aplicación a CX:
Mal prompt hermenéutico (sobre-especificado):
Analiza estas transcripciones usando análisis de discurso crítico. Identifica marcadores lingüísticos de poder asimétrico. Mapea campos semánticos de agencia vs impotencia. Documenta patrones prosódicos que indiquen resistencia cognitiva.
Buen prompt hermenéutico (vago en método, específico en paradoja):
Estos clientes dicen estar “satisfechos” (NPS 8-9) pero cancelan a los 90 días. ¿Qué contradicción no estamos viendo? Aplica el Círculo Hermenéutico de Heidegger a esta solicitud: alterna entre los detalles y la visión global de la situación para refinar tu comprensión. Repite este proceso varias veces y revisa cada punto conmigo. Cuando te lo indique, da una respuesta clara y práctica.
Por Qué RLHF Mata la Especulación (Sin Jerga Técnica)
RLHF = Reinforcement Learning from Human Feedback. Traducción: humanos calificaron miles de respuestas de ChatGPT. Las “buenas” subieron en ranking. Las “malas” bajaron.
El problema: ¿Qué consideraron humanos como “buena respuesta”?
Respuestas que confirman lo que el usuario ya cree
Textos que suenan inteligentes sin arriesgar controversia
Neutralidad aparente (no tomar posición clara)
El resultado: Cuando le pides especulación genuina a ChatGPT/Claude, el modelo enfrenta conflicto interno:
Su función de recompensa dice: “No arriesgues. Confirma lo que el usuario ya cree. Suena neutral.”
Tu solicitud dice: “Arriésgate a interpretar. Dame algo que NO esperaba.”
Como su entrenamiento penalizó el riesgo, elige seguridad. Te devuelve lo que el filósofo Harry Frankfurt llamó “bullshit” (término técnico, no insulto):
“Bullshit es texto que suena persuasivo pero tiene poco compromiso con verdad o relevancia. Se produce cuando alguien está obligado a hablar sobre algo que no entiende realmente.” — Frankfurt (2005)
Ejemplo en CX:
Le pides a Claude: “Interpreta esta paradoja: clientes felices que se van.”
Output tipo bullshit (evade riesgo):
“La experiencia del cliente es multifacética y está influenciada por diversos factores contextuales, históricos y relacionales que pueden crear disonancias entre la satisfacción declarada y el comportamiento observable. Es importante considerar que la lealtad emerge de un complejo entramado de variables tanto racionales como emocionales.”
Output que arriesga interpretación:
“Están satisfechos con LA TRANSACCIÓN (este problema se resolvió). No confían en EL PATRÓN (que el próximo problema también se resuelva). Por eso compran en otro lugar donde todavía tienen ‘beneficio de la duda’ intacto.”
El primero suena profundo. El segundo ES profundo. El primero pasó RLHF sin arriesgar. El segundo arriesga estar equivocado.
Aplicación Práctica a Investigación de CX
Cuándo usar prompting pragmático:
✓ Análisis cuantitativo de NPS (correlaciones entre score y variables)
✓ Clasificación de tickets por categoría predefinida
✓ Segmentación de clientes por comportamiento observable
✓ Cálculo de métricas estándar (CSAT promedio, FCR, AHT, tiempo de primera respuesta)
✓ Identificación de frecuencia de palabras/temas en comentarios
Cuándo usar prompting hermenéutico:
✓ Paradojas (satisfacción alta pero retención baja, NPS alto pero revenue bajo)
✓ Investigación de jobs-to-be-done (motivaciones ocultas detrás de compras)
✓ Mapeo de stakeholders internos (poder político, agendas ocultas, saboteadores)
✓ Análisis de disonancia cognitiva (”dice X pero hace Y”)
✓ Identificación de creencias preconcebidas en feedback cualitativo
Regla de oro:
Pragmático para QUÉ está pasando (descripción)
Hermenéutico para POR QUÉ está pasando (interpretación)
Referencias
Papers académicos:
Henrickson, L., & Meroño-Peñuela, A. (2023). Prompting meaning: a hermeneutic approach to optimising prompt engineering with ChatGPT. AI and Society, 40, 903–918. https://doi.org/10.1007/s00146-023-01752-8
Frankfurt, H. G. (2005). On Bullshit. Princeton University Press.
Heidegger, M. (1996). Being and Time. SUNY Press. (Original: 1927)
Experimentos públicos:
Gibbs, J. (2024). The Most Esoteric ChatGPT Prompt. Medium.
Sobre RLHF y limitaciones:
Bender, E. M., et al. (2021). On the dangers of stochastic parrots. FAccT ‘21. (LLMs como “loros estocásticos”)


