On vous a sûrement déjà dit que pour limiter les erreurs des IA génératives et pour s’assurer qu’une machine rende les bonnes informations, il fallait passer par un RAG. Mais qu’est-ce qu’un RAG et comment est-ce que ça fonctionne exactement ? Dans cet atelier vous apprendrez à disséquer un outil de recherche d’information associé à un outil de synthèse de texte.
Chaire de recherche du Canada sur les écritures numériques, Bibliothèque des lettres et des sciences humaines, Centre de recherche interuniversitaire sur les humanités numériques. — louis-olivier.brassard@umontreal.ca
Format : 4 séances de 2heures, sans inscription, participation libre (à justifier pour le certificat des Humanités Numériques)
Objectifs de la série d’atelier :
Certificat canadien en Humanités Numériques

Des programmes informatiques que nous estimons à la hauteur de l’intelligence humaine ? Le développement des technologies fait évoluer cette définition de l’intelligence non seulement artificielle mais aussi humaine.
‘IA’ depuis 5 ans, a remplacé le ’numérique’ des années 2010, et le ‘cyberespace’ des années 1990 et 2000. (Citation: Vitali-Rosati, 2025) Vitali-Rosati, M. (2025). Manifeste pour des Études Critiques de l’Intelligence Artificielle. Consulté à l’adresse http://blog.sens-public.org/marcellovitalirosati/manifeste-ecia.html .
Définition pratique pour ces ateliers: “un programme informatique qui effectue une prédiction.”

Plongements lexicaux ou word embeddings

Comparaison de vecteurs dans un espace à deux dimensions

Classification avec algorithme K-Nearest-Neighbor d’une troisième phrase
IA, dite générative ou d’automatisation de la prédiction de token, effectue aujourd’hui des tâches complexes à deux niveaux:
interprétation d’une instruction donnée en langue naturelle (avec son lot d’ambiguïté).
intégration de LLM dans des process ou pipelines qui impliquent des interactions en chaînes:
Un agent est une série d’appels à un LLM : l’agent est ce qui permet d’enchaîner input et output jusqu’à complétion d’une tâche. Le résultat de ces interactions peut ne pas être une réponse en langue naturelle ex: activation d’une fonction.
Autrement dit, un agent est une “IA” qui se répond à elle-même.
On parlera de système agentique quand plusieurs agents interagissent.
Démonstration d’un agent : assistant à l’exploration et la création de note sur un tableau interactif de (Citation: Arawjo, 2026) Arawjo, I. (2026). ianarawjo/splat. Consulté à l’adresse https://github.com/ianarawjo/splat

Description des IA agentiques par Docker
Depuis GPT-3.5 et sa sortie publique en décembre 2022, l’application ChatGPT ne se contente pas d’envoyer seul le prompt de l’utilisateur pour interroger le LLM: dans le prompt global, on trouve un ensemble d’instructions préliminaires (le system prompt) et d’informations complémentaires comme l’historique des échanges (chat history).
Depuis décembre 2024, le Model Context Protocol (MCP) permet l’intégration modulaire de l’interface de chat à d’autres fonctionalités.
![Le MCP[^mcp]](/images/mcp.png)
Le MCP[^mcp]
Exemple : la fonction search => RAG
Limites du LLM:
-> perte de fiabilité
Le RAG : architecture de système d’IA qui repose sur une base de connaissance externe dans le but d’améliorer les réponses d’une IA générative sans demander d’entrainement supplémentaire (fine tuning). (Citation: Lewis & al., 2021) Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W., Rocktäschel, T., Riedel, S. & Kiela, D. (2021). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. https://doi.org/10.48550/arXiv.2005.11401 (Facebook, University College London, New York University)

Superbe diagramme d’un RAG
Requête d’une base de données1 avec des méthodes de Recherche d’Information (TF-iDF ou similarité cosinus) + intégration des morceaux extraits au prompt. Le LLM effectue une synthèse. Ex: NotebookLM
We collaborated extensively with the news industry and carefully listened to feedback from our global publisher partners, including Associated Press, Axel Springer, Condé Nast, Dotdash Meredith, Financial Times, GEDI, Hearst, Le Monde, News Corp, Prisa (El País), Reuters, The Atlantic, Time, and Vox Media. Any website or publisher can choose to appear(opens in a new window) in ChatGPT search. If you’d like to share feedback, please email us at publishers-feedback@openai.com. — (Citation: , 2024) (2024). Introducing ChatGPT search. Consulté à l’adresse https://openai.com/index/introducing-chatgpt-search/
-> Atlas, un navigateur avec chatGPT comme “moteur de recherche” par défaut. (Citation: Dash, 2025) Dash, A. (2025). ChatGPT’s Atlas: The Browser That’s Anti-Web - Anil Dash. Consulté à l’adresse https://anildash.com/2025/10/22/atlas-anti-web-browser/ parle d’un navigateur ‘anti-web’:
By keeping the ChatGPT sidebar open while you browse, and giving it permission to look over your shoulder, OpenAI can suddenly access all kinds of things on the internet that they could never get to on their own.
Partenariat avec l’AFP depuis janvier 2025 (Citation: , 2025) (2025). AFP and Mistral AI announce global partnership to enhance AI responses with reliable news content | AFP.com. Consulté à l’adresse https://www.afp.com/en/agency/inside-afp/press-release/afp-and-mistral-ai-announce-global-partnership-enhance-ai-responses . Opacité quant à la méthode de recherche d’information sur internet3.
Qu’est-ce qu’on entend par IA dans ce cas ?
5 à 6 niveaux d’intervention possible !
Désambiguisation, keywords, classification de topics, abstract. (OpenAlex, Isidore? -> ML pour attribution de sujets reliés).
Méthodes sans IA : thésaurus, ontologies.
Query expansion avec un LLM: “Écrit 10 variants de la requête suivantes”
Méthodes classiques (non IA ?):
Recherche sémantique (semantic search/dense retrieval) utilisation des plongements lexicaux de modèles types encodeur (BERT) ou décodeur (e.g. GPT) lors de la recherche: représentation vectorielle de la requête et de l’entièreté de la base de données -> mesure de similarité cosinus.
Recherche hybride (hybrid search): mélange de 1. et 2. (pas forcément 50/50).
-> Impact sur la manière de requêter: 1. par mot-clé, 2. ’en langue naturelle’.
Classement des articles présentés selon un critère de pertinence par rapport à la requête.
ML classique (entraînement d’un modèle au classement)
Comparaison de vecteurs (requête/titre de l’article): score = proximité. ex: Primo search assistant5
Évaluation par un LLM type ‘gen AI’ : prompt de classement ou catégorisation de pertinence. Fournissent les explications: Ex: Asta

Asta présente la justification de la catégorie de pertinence

Google Scholar Labs donne une explication de la présence de l’article dans la liste de résultat
Synthèse des articles extraits pour répondre à une question en langue naturelle => RAG.
RAG simple: Elicit, SciSpace (source: Semantic Scolar, Open Alex), fonction TLDR de Semantic Scholar.
Deep research : Agentic AI, spécialisation de plusieurs agents, retourne un rapport complet en quelques minutes. Fonctionalités spécialisés Ex: Consensus fonctionalité “Study Snapchot”.

Undermind.ai
The AI-generated things get propagated into other real things, so students see them cited in real things and assume they’re real, and get confused as to why they lose points for using fake sources when other real sources use them (Citation: Klee, 2025) Klee, M. (2025). AI Is Inventing Academic Papers That Don’t Exist – And They’re Being Cited in Real Journals. Consulté à l’adresse https://www.rollingstone.com/culture/culture-features/ai-chatbot-journal-research-fake-citations-1235485484/

Synthèse des outils d’IA
Pour suivre ces questions, suivre Aaron Tay : https://aarontay.substack.com/ (Citation: Tay, 2025) Tay, A. (2025). What Do We Actually Mean by “AI-Powered Search”?. Consulté à l’adresse https://aarontay.substack.com/p/what-do-we-actually-mean-by-ai-powered
Le matériel informatique : trésor ou ordure ? 29 janvier, même heure même lieu
Rester à la fine pointe de la technologie, ça coûte cher. Mais est-ce même utile ? Est-ce que ça se fait de seulement remplacer la batterie de son ordinateur, ou un disque pour rendre sa machine plus rapide ? C’est souvent plus facile qu’on le pense ! Avec cette démo, on vous aide à garder votre machine plus longtemps, et votre argent dans vos poches !
Documentation des nouvelles pratiques liées à l’utilisation de l’IA : préconisations pour les SHS 12 mars, même heure même lieu