Llevo dos años trabajando con Claude todos los días. Esto es lo que he aprendido sobre cómo hablarle
Claude es mi herramienta favorita. No lo digo como frase de LinkedIn. Lo digo como alguien que la usa entre 6 y 10 horas al día para producir artículos, construir productos digitales, investigar para una tesis doctoral y diseñar estrategias de marca para clientes. Si mañana desapareciera, tendría que contratar a “X” elevado a “n” personas…
Pero Claude no hace magia. Hace exactamente lo que le pides. Y ahí está el problema: la mayoría de la gente no sabe pedir.
Anthropic acaba de actualizar su guía oficial de prompting para los modelos Claude 4.6 (Opus, Sonnet y Haiku) Es un documento técnico, denso, pensado para desarrolladores. Lo he leído entero. Y lo que voy a hacer aquí es traducirlo a lo que realmente importa si usas Claude para trabajar: qué principios cambian los resultados de verdad, cómo los aplico yo a diario, y qué errores veo repetirse constantemente.
No voy a explicar qué es un prompt. Si estás leyendo esto, ya lo sabes. Vamos al grano.
El principio que lo cambia todo: Claude no es un buscador. Es un empleado nuevo brillante.
La documentación de Anthropic lo dice de forma perfecta: piensa en Claude como un empleado recién llegado, extremadamente capaz, pero que no tiene ni idea de tus normas, tu contexto ni tu forma de trabajar.
La mayoría de la gente le habla a Claude como si fuera Google: lanza una pregunta y espera que adivine lo que quiere. Pero Claude no adivina. Interpreta. Y si le das información ambigua, te devuelve algo ambiguo. No porque sea limitado, sino porque tú no le has dado suficiente contexto.
La regla de oro que uso yo: antes de enviar un prompt, me pregunto si un compañero de trabajo que no conoce el proyecto entendería exactamente lo que le pido. Si la respuesta es no, el prompt no está listo.
Esto parece básico. No lo es. He visto a profesionales con años de experiencia en marketing enviarle a Claude “hazme un plan de contenidos” y quejarse de que el resultado es genérico. Claro que es genérico , le has dado un brief genérico.
Cuando yo le pido un artículo para la newsletter de +MAIN.MIND, no le digo “escribe un artículo sobre IA y branding”. Le digo:
“Escribe un artículo de ~1.200 palabras para la newsletter de +MAIN.MIND (mainmind.es) El público es profesionales de marketing y directivos de pymes en España que usan IA de forma básica y quieren ir más allá. El tono es directo, en primera persona, sin jerga innecesaria. La estructura es: gancho contraintuitivo que rompa una creencia común, desarrollo con datos citados y ejemplos concretos, prompts copiables que el lector pueda usar hoy, y cierre con CTA natural hacia los servicios de +MAIN.MIND sin nombrarlos directamente. No uses emojis. No uses listas de más de 5 puntos. Escribe en prosa siempre que sea posible.”
¿Ves la diferencia? El primer prompt produce ruido. El segundo produce un borrador que está al 80% de lo que necesito. Y ese 80% es lo que separa a quien usa Claude como juguete de quien lo usa como herramienta de producción.
Etiquetas XML: el truco que nadie usa y que mejora todo
Esto es lo que más me ha sorprendido de la guía de Anthropic y lo que menos veo aplicar en la práctica. Las etiquetas XML son la forma más efectiva de estructurar prompts complejos para que Claude no confunda instrucciones con contexto, ni ejemplos con reglas.
Cuando mezclas todo en un bloque de texto: “haz esto, ten en cuenta aquello, aquí va un ejemplo, pero no hagas lo otro” ; Claude tiene que adivinar dónde termina una instrucción y empieza un ejemplo. A veces acierta. A veces no.
Las etiquetas resuelven esto de raíz. Así es como estructuro yo un prompt complejo:
xml
<contexto>
Eres un experto en comunicación corporativa y marketing digital
con 15 años de experiencia en el mercado español. Trabajas para
MAIN MIND, un ecosistema de marketing aplicado con IA.
</contexto><instrucciones>
Escribe un artículo de newsletter siguiendo esta estructura:
1. Gancho con dato contraintuitivo
2. Desarrollo con mínimo 2 fuentes citadas
3. Sección práctica con prompts copiables
4. CTA natural al final
Extensión: 1.000-1.400 palabras. Idioma: español de España.
</instrucciones><estilo>
Tono directo, en primera persona. Frases cortas mezcladas con
frases largas para crear ritmo. Sin jerga. Sin emojis. Prosa
fluida, evitar listas largas. Referenciador pero no académico.
</estilo><ejemplo>
[Aquí pego un fragmento de un artículo anterior que me guste]
</ejemplo><tema>
Cómo las marcas deben prepararse para los agentes de IA que
compran en nombre de los consumidores. Basado en el artículo
de Acar & Schweidel en Harvard Business Review (marzo 2026).
</tema>
La diferencia es brutal. Claude sabe exactamente qué es contexto, qué es instrucción, qué es estilo, qué es ejemplo y qué es el tema concreto. No hay ambigüedad. No hay margen para la interpretación creativa donde no la quieres.
Anthropic recomienda usar nombres de etiqueta descriptivos y consistentes. Yo tengo los míos estandarizados y los reutilizo en cada sesión. Es como tener una plantilla de brief que siempre funciona.
Los ejemplos son más importantes que las instrucciones
Esto lo dice Anthropic directamente y es lo que más confirmo en mi trabajo diario: los ejemplos son la forma más fiable de controlar el formato, el tono y la estructura de lo que Claude genera.
Puedes escribir tres párrafos explicando el tono que quieres. O puedes pegar un ejemplo de 200 palabras con el tono exacto y decirle “escribe así”. Lo segundo funciona mejor. Siempre.
Yo mantengo una carpeta con fragmentos de mis propios artículos organizados por tipo: artículo general, artículo corporativo con CTA, artículo científico, post de LinkedIn. Cuando empiezo una sesión de producción, pego el fragmento relevante como ejemplo dentro de etiquetas <ejemplo>. Claude clava el tono en el primer intento.
Anthropic recomienda entre 3 y 5 ejemplos para resultados óptimos. Que sean diversos, que cubran casos límite, y que estén etiquetados con <example> para que Claude los distinga de las instrucciones.
Un truco que me funciona: le pido a Claude que evalúe mis propios ejemplos. “¿Estos tres fragmentos cubren suficiente diversidad para que captures mi estilo? ¿Qué tipo de artículo no está representado?” Claude te dice dónde están los huecos. Es como tener un editor que audita tu propio brief.
El pensamiento adaptativo: lo que ha cambiado en Claude 4.6
Esta es la parte más técnica pero también la que más impacto tiene si usas Claude vía API o si construyes productos con él , como hago yo en Lovable con los servicios de +MAIN.MIND.
Los modelos anteriores tenían un “presupuesto de pensamiento” fijo: le decías cuántos tokens podía usar para pensar antes de responder. Claude 4.6 introduce el pensamiento adaptativo: Claude decide por sí mismo cuánto necesita pensar según la complejidad de lo que le pides. Para una pregunta simple, responde directo. Para un problema complejo con múltiples pasos, se toma más tiempo razonando.
En la práctica, esto significa que Claude 4.6 es notablemente más inteligente en tareas complejas sin ser más lento en las simples. Cuando le pido que analice un artículo científico y lo convierta en contenido de newsletter, le veo “pensar” más que cuando le pido un asunto de email. Y los resultados lo reflejan.
Lo que dice Anthropic, y confirmo, es que si antes tenías prompts que forzaban a Claude a ser más exhaustivo (“piensa paso a paso”, “analiza en profundidad”), ahora conviene suavizarlos. Claude 4.6 ya hace ese trabajo solo. Si le sigues empujando, puede sobre-pensar y ralentizarse sin mejorar el resultado.
Cómo evitar el “tono de IA” en los outputs
Este es el problema que más me obsesiona y el que más me preguntan. Claude es increíblemente capaz, pero si no lo guías, produce textos con un estilo reconocible: demasiado estructurado, demasiadas negritas, demasiadas listas, frases que suenan a manual corporativo.
La guía de Anthropic aborda esto directamente y su consejo es contraintuitivo: en lugar de decirle qué NO hacer, dile qué SÍ hacer. En vez de “no uses markdown”, dile “escribe en prosa fluida con párrafos que fluyan naturalmente”. En vez de “no seas genérico”, dile “escribe como un periodista de negocios con opinión, no como un manual”.
Pero hay un matiz que Anthropic menciona y que es clave: el estilo de tu prompt influye en el estilo de la respuesta. Si tu prompt está lleno de listas y negritas, Claude tiende a responder con listas y negritas. Si tu prompt está en prosa limpia, la respuesta tiende a ser prosa limpia.
Yo lo aplico así: mis prompts están escritos en el mismo tono en el que quiero la respuesta. No le hablo a Claude en modo telegrama y luego le pido un artículo literario. El prompt ES la plantilla de estilo.
Y el truco que más me funciona: le doy el rol en el system prompt. Una sola frase cambia todo. “Eres un periodista de negocios con 15 años de experiencia que escribe columnas de opinión informadas, directas, sin jerga, en español de España” produce resultados radicalmente distintos a no dar ningún rol.
Lo que uso para producción real (mi stack de prompting)
Voy a ser concreto porque los artículos que solo dan teoría no sirven. Esto es lo que uso a diario:
Para artículos de newsletter: un mega-prompt con etiquetas XML que incluye contexto de +MAIN.MIND, instrucciones de estructura, restricciones de estilo, un ejemplo de artículo previo, y el tema con fuentes. Una sola conversación por artículo. El resultado es un borrador al 80% que edito en 15–20 minutos.
Para verificación de fuentes: un prompt específico que le pide a Claude buscar cada referencia, confirmar autor, año, DOI o URL, y marcar cualquier dato que no pueda verificar. Luego cruzo con ChatGPT y Gemini. Triple check. Porque Claude (como cualquier modelo ) puede alucinar referencias.
Para productos en Lovable: los system prompts de mis Edge Functions usan el estilo que Anthropic recomienda para uso de herramientas: instrucciones explícitas sobre cuándo actuar y cuándo preguntar, con XML para separar contexto del usuario, instrucciones de la IA y restricciones de formato.
Para investigación doctoral: prompts largos con documentos completos al principio (Anthropic confirma que poner los documentos arriba y la pregunta abajo mejora hasta un 30% la calidad), instrucciones para citar textualmente antes de analizar, y verificación cruzada obligatoria.
Para SEO y metadata: un prompt estandarizado que genera slug, meta description, keywords, Open Graph, extracto de newsletter y prompts de imagen, todo de una vez, para cada artículo. Lo tengo tan pulido que casi nunca necesito editar el output.
Los errores que veo repetirse (y cómo evitarlos)
Error 1: prompts vagos. “Hazme un plan de marketing con IA.” Resultado: genérico. Solución: especifica sector, tamaño de empresa, presupuesto, objetivo, plazo, canales. Cuanto más contexto, mejor resultado.
Error 2: no dar ejemplos. Le explicas el tono que quieres en tres párrafos cuando podrías pegar 200 palabras de un texto con ese tono. El ejemplo gana siempre.
Error 3: mezclar todo en un bloque. Instrucciones, contexto, restricciones, ejemplos , todo junto en un párrafo. Claude lo interpreta como puede. Las etiquetas XML resuelven esto por completo.
Error 4: no iterar. El primer resultado de Claude rara vez es el final. Pero mucha gente acepta lo primero que sale o descarta la herramienta porque “no da buenos resultados”. El flujo correcto es: prompt → resultado → feedback → refinamiento → resultado final. Exactamente como trabajarías con un compañero humano.
Error 5: pedirle que no haga algo en vez de pedirle que haga algo. “No seas aburrido” no funciona. “Escribe con el ritmo y la acidez de una columna de Matt Levine” sí funciona.
Lo que viene: agentes que se gestionan solos
La parte más ambiciosa de la guía de Anthropic es la sección sobre sistemas agénticos. Claude 4.6 puede mantener estado a lo largo de sesiones extensas, orquestar subagentes, trabajar en paralelo con múltiples herramientas, y gestionar su propia ventana de contexto sabiendo cuánto “espacio” le queda.
Traducido: estamos muy cerca de poder decirle a Claude “investiga este tema, escribe el artículo, genera la metadata SEO, crea los prompts de imagen, y programa la publicación” , y que lo haga todo en un solo flujo, sin intervención.
De hecho, algo parecido ya lo hago. Mis sesiones de producción de contenido para +MAIN.MIND son conversaciones largas donde genero artículo, metadata, prompts de imagen y planificación editorial en una sola sesión. Claude mantiene el contexto completo y cada output posterior es más preciso porque recuerda todo lo que hemos construido antes.
La diferencia entre lo que viene y lo que hago ahora es que pronto no haré falta yo en medio del proceso. Y eso es exactamente lo que tiene que pasar — mi trabajo se desplaza de producir a dirigir. De ejecutar a decidir qué se ejecuta y cómo.
La conclusión que nadie quiere oír
Saber usar IA en 2026 no es saber que existe. No es tener una cuenta de Claude o ChatGPT. Es saber hablarle. Es saber estructurar un prompt que produzca resultados profesionales de forma consistente.
Y eso es una habilidad. Una que se entrena. Una que tiene mejores prácticas documentadas. Una que separa al profesional que produce en una hora lo que antes le costaba un día del que sigue quejándose de que “la IA genera cosas genéricas”.
Claude es mi herramienta favorita porque es la que mejor responde cuando le hablas bien. No es la más fácil. Es la más capaz. Y la distancia entre usarla mal y usarla bien es la misma distancia que hay entre escribir un email de tres líneas y escribir un brief que mueve un proyecto.
Aprende a hablarle a la IA.
Descubre cómo en MAIN MIND aplicamos todo esto para marcas y equipos →

