Au-delà du prompting basique
La plupart des agents IA sous-performent à cause de prompts mal conçus. Voici les techniques avancées utilisées par les équipes produit des meilleures startups IA.
1. Few-Shot Prompting (Apprentissage par l'exemple)
Au lieu d'expliquer, montrez des exemples.
❌ Prompt basique :
Classe les emails entrants par priorité : haute, moyenne, basse.
✅ Prompt few-shot :
Classe les emails par priorité.
Exemples :
Email: "Urgent : le serveur est down, site inaccessible"
→ Priorité: HAUTE
Email: "Demande de devis pour refonte site web"
→ Priorité: MOYENNE
Email: "Newsletter partenaire - offre spéciale"
→ Priorité: BASSE
Email à classifier : [EMAIL CLIENT]
→ Priorité:
**Résultat :** +40% de précision sur la classification
2. Chain-of-Thought (Raisonnement étape par étape)
Forcez l'IA à expliquer son raisonnement avant de répondre.
Exemple : Agent d'analyse de leads
Analyse ce lead et donne un score 0-100.
Étapes :
- Extraire secteur d'activité et taille entreprise
- Identifier besoins explicites vs implicites
- Évaluer urgence temporelle
4. Calculer fit avec notre offre
5. Attribuer score final
Lead : [DONNÉES LEAD]
Analyse :
**Résultat :** -60% d'erreurs sur les leads complexes
3. ReAct Pattern (Reasoning + Acting)
Le pattern ultime pour des agents autonomes. L'IA alterne entre réflexion et action.
Structure ReAct :
Question : [input utilisateur]
Thought 1 : Je dois chercher X information
Action 1 : [appel API/tool]
Observation 1 : [résultat]
Thought 2 : Maintenant je peux faire Y
Action 2 : [appel API/tool]
Observation 2 : [résultat]
Thought 3 : J'ai assez d'infos pour répondre
Action 3 : [réponse finale]
Implémentation en Python :
def agent_react(query, max_iterations=5):
context = []
for i in range(max_iterations):
# Phase Reasoning
thought = llm.generate(f"Given: {query} and context: {context}, what should I do next?")
# Phase Action
if "search" in thought:
result = search_api(extract_query(thought))
elif "calculate" in thought:
result = calculator(extract_math(thought))
elif "respond" in thought:
return extract_answer(thought)
context.append({"thought": thought, "result": result})
return "Max iterations reached"
4. Self-Consistency (Vérification par consensus)
Générez plusieurs réponses et prenez le consensus.
responses = []
for _ in range(5):
response = openai.chat.completions.create(
model="gpt-4",
messages=[prompt],
temperature=0.8 # Variabilité
)
responses.append(response.choices[0].message.content)
# Vote majoritaire ou extraction réponse commune
final_answer = extract_consensus(responses)
**Cas d'usage :** Classification de documents sensibles, scoring de leads
5. Prompt Chaining (Enchaînement de tâches)
Décomposez les tâches complexes en étapes séquentielles.
Exemple : Rédaction d'email de prospection
Étape 1 - Analyse :
Analyse ce prospect :
- Secteur d'activité
- Taille entreprise
- Signaux d'intention récents
- Points de douleur probables
Prospect : [DATA]
→ JSON structuré
Étape 2 - Stratégie :
Basé sur l'analyse : [RÉSULTAT ÉTAPE 1]
Choisir l'angle d'approche : pain point / opportunité / social proof
→ Justification de la stratégie
Étape 3 - Rédaction :
Rédiger un email en utilisant l'angle : [RÉSULTAT ÉTAPE 2]
- Accroche personnalisée
- 2-3 paragraphes max
- CTA clair
→ Email final
**Résultat :** Emails 3x plus personnalisés et pertinents
6. Context Injection (RAG basique)
Injectez des données contextuelles dynamiquement.
Tu es un conseiller client pour une agence digitale.
BASE DE CONNAISSANCES (recherche sémantique) :
[3 articles les plus pertinents de la FAQ]
CONVERSATION ACTUELLE :
[Historique des 5 derniers messages]
QUESTION CLIENT :
[Input actuel]
RÉPONSE :
Implémentation simple :
- Vectorisez votre FAQ (embeddings OpenAI)
- À chaque question, cherchez les 3 passages les plus similaires
- Injectez dans le prompt
7. Meta-Prompting (L'IA écrit ses propres prompts)
Laissez l'IA optimiser elle-même ses instructions.
Tu es un expert en prompt engineering.
Voici une tâche à accomplir : [DESCRIPTION]
- Rédige un prompt système optimal pour cette tâche
- Explique pourquoi chaque instruction est importante
- Teste le prompt sur 3 exemples
4. Itère pour améliorer
→ Prompt final optimisé
Tableau récapitulatif
| Technique | Cas d'usage | Gain ||-----------|-------------|------|| Few-shot | Classification | +40% précision || Chain-of-thought | Raisonnement complexe | -60% erreurs || ReAct | Agents autonomes | Automatisation complète || Self-consistency | Décisions critiques | Fiabilité accrue || Prompt chaining | Tâches multi-étapes | Qualité supérieure || Context injection | Support/FAQ | Réponses pertinentes || Meta-prompting | Optimisation continue | Prompts qui s'améliorent |Conclusion
Le prompt engineering est une compétence qui se développe avec la pratique. Commencez par few-shot et chain-of-thought, qui donnent 80% des gains pour 20% d'effort.
**Besoin d'agents IA optimisés ?** [Voir nos offres →](/automations)