Content
Créer un chatbot interne avec l’API Gemini
Guide complet pour créer un chatbot interne avec l’API Gemini : cadrage, RAG, prompts, sécurité RGPD, intégrations Workspace/Slack/Teams, outils métiers et feuille de route vers la production.
3 sept. 2025
|

Un bon chatbot interne n’est pas une “boîte noire” qui parle bien : c’est une brique métier branchée sur vos documents, vos outils, et gouvernée par des règles claires. Avec l’API Gemini, vous pouvez bâtir un assistant qui répond aux questions des équipes, résume des documents, déclenche des actions dans vos systèmes et conserve un fil de conversation utile, tout en respectant vos contraintes de sécurité et de conformité.
Ce que doit faire votre chatbot (et ce qu’il ne doit pas faire)
Avant une ligne de code, cadrez la mission. Un assistant interne efficace se concentre sur 3 à 5 cas d’usage à fort impact : répondre à la base documentaire RH, assister le support IT niveau 1, résumer et retrouver des politiques internes, générer des brouillons d’emails ou de notes, ou encore exécuter des actions simples (créer un ticket, planifier une réunion). Bannissez les promesses floues et les “il peut tout faire” : plus le périmètre est clair, meilleurs seront les résultats.
Architecture de référence
Pensez votre chatbot comme un pipeline :
Entrée : message utilisateur (texte, parfois fichier).
Orchestration : votre serveur reçoit la requête, gère l’authentification et le routage.
Enrichissement : récupération de contexte via RAG (Retrieval-Augmented Generation) sur vos documents, et éventuellement appel d’outils internes (annuaire, tickets).
Génération : appel à l’API Gemini avec un prompt structuré, des “system messages” et les passages retrouvés.
Sortie : réponse formattée, citation des sources, actions côté systèmes si besoin.
Traçabilité : logs, métriques, évaluation de la qualité.
Côté “briques”, retenez : l’API Gemini (Google AI Studio ou Vertex AI), un index vectoriel pour la recherche sémantique, un orchestrateur (backend Node/Python), et la couche d’interface (Google Chat, Slack, Teams, intranet).
Prérequis et choix de plateforme
Vous pouvez consommer Gemini via Google AI Studio (rapide à prototyper) ou via Vertex AI (idéal pour production, sécurité, monitoring, gestion des versions, Vector Search). Dans un contexte entreprise, Vertex AI est souvent préférable pour l’identité, la facturation, la gouvernance et le stockage des embeddings. Si vous êtes “Google Workspace-first”, l’intégration avec Drive, Gmail, Calendar et Apps Script est un plus.
Étapes pas à pas
1) Définir le socle documentaire
Rassemblez les contenus de référence : politiques internes, guides IT, FAQ RH, procédures sécurité, playbooks commerciaux. Nettoyez les doublons, fixez un propriétaire par dossier, ajoutez des métadonnées (service, date, version). Convertissez les formats exotiques vers du texte indexable (PDF, DOCX). La qualité de la base a plus d’effet que n’importe quel “prompt magique”.
2) Construire la recherche sémantique (RAG)
Découpez les documents en “chunks” (300–1 000 tokens), générez des embeddings et indexez-les dans un vector store (Vertex AI Vector Search, ou une alternative gérée). En requête, récupérez 3 à 8 passages les plus pertinents, dédupliquez, filtrez par permissions, et passez-les comme “context” au modèle. Citez les sources en fin de réponse pour renforcer la confiance des utilisateurs.
3) Poser les garde-fous conversationnels
Utilisez un “system prompt” qui fixe le ton, le périmètre et les interdits. Exemple : “Tu es l’assistant interne Focus IA. Tu réponds uniquement à partir des politiques et procédures ci-jointes. Si l’information n’est pas disponible, tu le dis clairement et proposes une escalade.” Ajoutez des consignes de mise en forme : réponses courtes, étapes actionnables, sources.
4) Appeler Gemini depuis votre backend
Un serveur minimal gère l’authentification, la journalisation et l’orchestration RAG → génération. En Python ou Node.js, l’appel de base tient en quelques lignes ; encapsulez-le dans une fonction qui reçoit le message de l’utilisateur et un tableau de “contexts”.
Pseudo-code (Python) :
5) Outiller le bot : actions et “function calling”
Pour un assistant utile, autorisez des outils contrôlés : créer un ticket, rechercher un contact, planifier une réunion, récupérer le statut d’un service. Côté Gemini, servez une liste de fonctions (schémas) et laissez le modèle proposer un appel quand pertinent. Votre backend exécute l’action, renvoie un résultat, et vous reformulez une réponse finale à l’utilisateur.
Exemples d’outils sûrs : lecture d’un article de la base, création d’une tâche, consultation d’un annuaire, requête à un moteur de tickets. Limitez-vous à des actions idempotentes et journalisées au départ.
6) Permissions et RGPD
Respectez le principe du moindre privilège. Filtrez les passages RAG selon l’identité de l’utilisateur (service, niveau). Journalisez les requêtes et floutez les données personnelles quand ce n’est pas nécessaire. Définissez une rétention courte pour les logs conversationnels, documentez les finalités et prévoyez un canal pour exercer les droits d’accès/suppression. La confiance des équipes dépend de ces détails.
7) Interface : là où vivent vos équipes
Intégrez le bot dans Google Chat pour les organisations Workspace, ou Slack/Teams via un petit “bridge” HTTP. Ajoutez des commandes slash utiles, un bouton “sources”, et un mode “demander une correction” qui notifie un propriétaire de contenu lorsque la réponse est incomplète.
8) Évaluer et améliorer
Mesurez la pertinence perçue (émoji up/down, commentaire), le taux de réponses avec sources, le taux d’escalade, le gain de temps estimé par cas d’usage et la couverture documentaire (pourcentage de réponses issues d’un document à jour). Installez une boucle hebdomadaire : on corrige les prompts, on enrichit le corpus, on ajoute ou retire des outils.
Prompts de départ qui fonctionnent en interne
“À partir des politiques ci-dessous, réponds à la question de l’utilisateur. Si l’information manque, dis-le et propose une escalade.”
“Résume ce document en 5 points actionnables et propose la check-list associée.”
“Classe cette question dans un des cas d’usage support : accès, matériel, logiciel, RH, autre. Si ‘autre’, demande une précision.”
Gardez des formats stables pour que les équipes sachent à quoi s’attendre. La constance rassure davantage qu’une “créativité” variable.
Sécurité : menaces et parades
Évitez les réponses “hallucinées” en forçant le modèle à s’appuyer sur les contextes récupérés et en autorisant la phrase “je ne sais pas”. Prévenez l’“injection” dans les documents en neutralisant les portions suspectes (tags, instructions) et en posant un contenu système prioritaire qui interdit l’exécution d’ordres présents dans les pièces jointes. Déployez des quotas et des seuils d’alerte pour éviter l’abus.
Déploiement et coûts
Un premier pilote peut tourner rapidement : hébergement du backend sur Cloud Run, stockage des embeddings dans Vertex AI Vector Search, secrets gérés par Secret Manager, et monitoring via Cloud Logging. Les postes de coût principaux sont l’inférence (appels à Gemini), l’index vectoriel et l’hébergement. Maîtrisez la facture en limitant la longueur de contexte, en filtrant en amont, et en n’appelant la génération qu’après un retrieval concluant.
Erreurs fréquentes à éviter
Le travers le plus courant est de sauter l’étape qualité des documents. Un corpus obsolète ou mal découpé donne des réponses vagues. Vient ensuite l’absence de mesure : sans feedback utilisateur et sans métriques, on améliore au hasard. Enfin, l’oubli de l’onboarding : un guide de 10 minutes et quelques exemples concrets transforment l’adoption.
Feuille de route sur 30 jours
Semaine 1 : cadrage des cas d’usage, inventaire et nettoyage des documents, choix de la plateforme.
Semaine 2 : index vectoriel, premier prompt système, MVP backend et appel à l’API Gemini, intégration Chat/Slack.
Semaine 3 : ajout de 1–2 outils (ticket, annuaire), logs et métriques, pilote avec 20 utilisateurs.
Semaine 4 : boucle d’amélioration, durcissement sécurité, élargissement à un service entier, préparation de la V1.
Exemple de route d’API minimaliste (Node)
Ce squelette suffit pour tester l’enchaînement “retrieval → génération → réponse”. Ajoutez ensuite l’authentification, la gestion des permissions et les métriques.