Inscription cours
« * » indique les champs nécessaires
Libérez le potentiel de la recherche sémantique et de l'IA grâce à cette formation immersive et pratique sur la recherche vectorielle avec PostgreSQL. En deux jours intensifs, vous passerez de "Qu'est-ce qu'un embedding ?" à un chatbot RAG (Retrieval-Augmented Generation) entièrement fonctionnel et construit sur PostgreSQL - aucune base de données vectorielle externe n'est nécessaire.
La recherche vectorielle révolutionne la façon dont nous interagissons avec les données, en permettant des requêtes plus intelligentes et contextuelles. En utilisant PostgreSQL, une base de données fiable et évolutive, vous pouvez mettre en œuvre la recherche vectorielle sans introduire de nouveaux outils ou de nouvelles infrastructures. Cette approche est idéale pour les équipes qui cherchent à améliorer les capacités de l’IA tout en gardant leur pile technologique simple et efficace. Qu’il s’agisse d’expérimenter les LLM ou de déployer des pipelines RAG de niveau production, PostgreSQL et pgvector offrent une combinaison puissante.
Pour commencer, vous découvrirez comment la recherche traditionnelle par mot-clé ne permet pas toujours de saisir le sens des mots. Nous expliquerons comment la recherche sémantique, qui s’appuie sur les « embeddings », change la donne en se concentrant sur l’intention et le contexte au lieu de se contenter de faire correspondre les mots.
Ensuite, nous nous pencherons sur la situation dans son ensemble. Vous verrez comment les données circulent dans un système RAG, depuis la requête de l’utilisateur jusqu’au modèle linguistique, en passant par l’intégration et l’extraction. Cela permet de clarifier exactement la place de PostgreSQL dans ce pipeline d’IA moderne.
Ensuite, vous passerez à la pratique. Grâce à des instructions pas à pas et à des scripts prêts à l’emploi, vous installerez pgvector
et mettrez en place votre première table d’intégration. Vous pouvez suivre cette formation sur votre ordinateur portable ou dans le Cloud.
Ensuite, nous nous pencherons sur les performances. Vous comparerez des méthodes de similarité telles que le cosinus, l’euclidienne et le produit intérieur. Grâce à des démonstrations SQL en direct, vous comprendrez comment chaque option affecte la vitesse, la précision et le stockage.
Une fois que votre recherche vectorielle fonctionne, vous apprendrez à la relier à des applications réelles. En utilisant les modèles LangChain et LangFlow, vous intégrerez des appels SQL, des filtres, des classements et des invites LLM dans des backends Python ou Node.
Enfin, vous réunirez le tout. Vous intégrerez un échantillon de données de FAQ, récupérerez les correspondances top-k et les transmettrez à une fonction OpenAI. Le résultat ? Un chatbot entièrement fonctionnel qui donne aux utilisateurs des réponses fondées et en temps réel.
A la fin de cet atelier, vous serez en mesure de :
pgvector
avec un début de workflow d’intégration OpenAICet atelier utilise un mélange pratique de brefs exposés, de démonstrations SQL en direct et de laboratoires pratiques. Tout d’abord, vous serez initié aux concepts de base par le biais de présentations courtes et ciblées. Ensuite, vous appliquerez immédiatement ce que vous avez appris dans des exercices guidés, soit dans une VM en nuage, soit sur votre propre ordinateur portable.
De plus, chaque sujet s’appuie sur le précédent, renforçant votre compréhension étape par étape. Enfin, vous réunirez le tout dans un projet phare : la construction d’un chatbot Q&A entièrement fonctionnel et soutenu par PostgreSQL.
Cet atelier est conçu pour :
Pour tirer le meilleur parti de cette formation, vous devez avoir :
Réduction de 5% pour les membres du SOUG, du SwissPUG et de la DOAG.
Formateurs
Adrien Obernesser