GenAI & interaction
Construire des assistants fiables : RAG, agents et interaction en langage naturel, avec évaluation continue.
Ce que nous explorons
Nous explorons des architectures GenAI centrées sur la fiabilité : assistants augmentés par la recherche (RAG), agents outillés, orchestration de pipelines et métriques de qualité/hallucinations adaptées au métier.
Verrous scientifiques & techniques
Ce qui rend le sujet non trivial en conditions réelles.- Réduction des hallucinations et contrôle de la factualité (sources, citations, garde-fous).
- Gestion du contexte (documents longs, mémoire, personnalisation) sans dérives.
- Mesure qualité/risques : évaluation offline/online, jeux de tests, replay de conversations.
- Sécurité & conformité : on-premise/hybride, gestion des données sensibles.
Approches & briques technologiques
Comment nous abordons le problème en R&D.- RAG multi-étapes : chunking adaptatif, reranking, citations, 'answer verification'.
- Agents outillés : planification, outils métiers, exécution contrôlée et logs auditables.
- Évaluation systématique : golden sets, scoring automatique + revues humaines ciblées.
- Observabilité : instrumentation des prompts, latence/coût, dérive de performance.
Illustrations de travaux
Quelques exemples de sujets traités dans ce thème.
Assistant d'analyse documentaire
Illustration de travauxQuestion-réponse sur corpus interne avec citations, reranking et règles anti-hallucination.
Automatisation de workflows
Illustration de travauxOrchestration d'étapes (recherche, extraction, synthèse) avec contrôle et traçabilité.
Évaluation et sécurité
Illustration de travauxBatteries de tests, red teaming et métriques de risque adaptées au contexte.
Envie d’échanger sur ce thème ?
Nous pouvons partager nos protocoles d’évaluation, nos retours d’expérience et nos options techniques adaptées à vos contraintes.