RAG, fine-tuning, prompt engineering : choisir la bonne approche

« On va fine-tuner un modèle. » Sept fois sur dix, ce n’est pas la bonne solution. Voici comment départager les trois grandes approches pour personnaliser une IA à votre contexte.

Prompt engineering

Vous écrivez des instructions soigneusement structurées, vous donnez des exemples dans le prompt, vous itérez. Aucun changement au modèle, juste un meilleur input. C’est l’approche la moins coûteuse, la plus rapide à déployer, et la plus facile à modifier.

Quand l’utiliser : pour 80 % des cas d’usage en PME. Si la tâche peut être expliquée à un humain en une page, elle peut probablement être expliquée à un LLM par prompt.

RAG (Retrieval-Augmented Generation)

Vous indexez votre base de connaissances (documents internes, FAQ, manuels, base de données). Au moment d’une requête, vous récupérez les passages pertinents et vous les injectez dans le prompt. Le modèle répond avec votre information à jour.

Quand l’utiliser : quand votre cas d’usage dépend d’information qui change (politiques internes, catalogue produits, documentation technique), ou qui est trop volumineuse pour tenir dans un prompt. C’est l’approche standard pour les chatbots d’aide interne, les outils de support client, et les assistants de recherche documentaire.

Fine-tuning

Vous prenez un modèle de base et vous l’entraînez sur vos propres exemples (typiquement des paires question/réponse de haute qualité). Le modèle « apprend » votre style, votre vocabulaire métier, ou un comportement spécifique difficile à obtenir autrement.

Quand l’utiliser : quand vous avez besoin d’un style très spécifique (ton de marque, format de sortie strict), un vocabulaire métier rare, ou une tâche de classification précise sur un domaine étroit. Et quand vous avez les données pour : minimum 500 à 1 000 exemples de qualité, idéalement plus.

Cadre de décision rapide

1. Est-ce que ça marche avec un bon prompt et des exemples ? Si oui, arrêtez là.

2. Sinon, est-ce que l’information manquante peut être indexée et récupérée à la demande ? Si oui, RAG.

3. Sinon, est-ce que vous avez 500+ exemples de la sortie idéale ? Si oui, fine-tuning peut être justifié. Sinon, retournez à 1.

Les combinaisons gagnantes

RAG + bon prompt engineering, c’est 90 % des solutions IA d’entreprise. Fine-tuning + RAG, pour les cas où vous voulez un ton très spécifique sur une base de connaissances changeante. Fine-tuning seul, presque jamais à part pour des cas de classification très étroits.

Le piège : commencer par « on va fine-tuner » avant d’avoir épuisé les deux premières options. Le fine-tuning coûte plus cher, prend plus de temps, et complique la maintenance. C’est un outil de précision, pas un point de départ.

Vous avez un projet IA?

Parlons-en. 30 minutes pour comprendre votre contexte et identifier les vraies opportunités.

Démarrer une conversation