Kurs-Anmeldung
„*“ zeigt erforderliche Felder an
Erschliessen Sie das Potenzial der semantischen Suche und der künstlichen Intelligenz mit dieser praxisnahen Schulung zur Vektorsuche mit PostgreSQL. In zwei intensiven Tagen werden Sie von "Was ist eine Einbettung?" zu einem voll funktionsfähigen Retrieval-Augmented Generation (RAG) Chatbot gelangen, der vollständig auf PostgreSQL basiert - eine externe Vektordatenbank ist nicht erforderlich.
Die Vektorsuche revolutioniert die Art und Weise, wie wir mit Daten interagieren und ermöglicht intelligentere, kontextbezogene Abfragen. Durch den Einsatz von PostgreSQL, einer zuverlässigen und skalierbaren Datenbank, können Sie die Vektorsuche ohne die Einführung neuer Tools oder Infrastrukturen implementieren. Dieser Ansatz ist ideal für Teams, die ihre KI-Fähigkeiten verbessern und gleichzeitig ihren Tech-Stack einfach und effizient halten möchten. Ob Sie mit LLMs experimentieren oder produktive RAG-Pipelines einsetzen, PostgreSQL und pgvector bieten eine leistungsstarke Kombination.
Zunächst werden Sie untersuchen, warum die herkömmliche stichwortbasierte Suche oft nicht in der Lage ist, die Bedeutung zu erfassen. Wir erklären, wie die semantische Suche mit Hilfe von Einbettungen das Spiel verändert, indem sie sich auf die Absicht und den Kontext konzentriert, anstatt nur Wörter zu finden.
Als Nächstes werden wir uns mit dem großen Ganzen befassen. Sie werden sehen, wie Daten durch ein RAG-System fließen – von der Anfrage des Benutzers über die Einbettung und Abfrage bis hin zum Sprachmodell. Dadurch wird klar, wo PostgreSQL in dieser modernen KI-Pipeline genau hinpasst.
Dann werden Sie selbst aktiv. Anhand von Schritt-für-Schritt-Anleitungen und gebrauchsfertigen Skripten installieren Sie pgvector
und richten Ihre erste Einbettungstabelle ein. Sie können das Ganze auf Ihrem Laptop oder in der Cloud verfolgen.
Danach werden wir uns mit der Leistung befassen. Sie werden Ähnlichkeitsmethoden wie Kosinus, Euklidisches und Inneres Produkt vergleichen. Anhand von Live-SQL-Demos werden Sie verstehen, wie sich die einzelnen Optionen auf Geschwindigkeit, Genauigkeit und Speicherplatz auswirken.
Sobald Ihre Vektorsuche funktioniert, werden Sie lernen, wie Sie sie mit realen Anwendungen verbinden können. Mithilfe von LangChain- und LangFlow-Vorlagen werden Sie SQL-Aufrufe, Filter, Rankings und LLM-Anfragen in Python- oder Node-Backends integrieren.
Zum Schluss fügen Sie alles zusammen. Sie werden einen FAQ-Beispieldatensatz einbetten, die Top-K-Treffer abrufen und sie an eine OpenAI-Funktion übergeben. Das Ergebnis? Ein voll funktionsfähiger Chatbot, der Nutzern fundierte Antworten in Echtzeit gibt.
Am Ende dieses Workshops werden Sie in der Lage sein:
pgvector
mit einem Einstiegs-Workflow für die OpenAI-EinbettungDieser Workshop besteht aus einer praxisorientierten Mischung aus kurzen Vorträgen, Live-SQL-Walkthroughs und praktischen Übungen. Zunächst werden Sie durch kurze, konzentrierte Präsentationen in die Kernkonzepte eingeführt. Anschließend wenden Sie das Gelernte sofort in geführten Übungen an – entweder in einer Cloud-VM oder auf Ihrem eigenen Laptop.
Darüber hinaus baut jedes Thema auf dem vorherigen auf und vertieft Ihr Verständnis Schritt für Schritt. Schließlich werden Sie alles in einem Abschlussprojekt zusammenfassen: Sie bauen einen voll funktionsfähigen Q&A-Chatbot, der vollständig auf PostgreSQL basiert.
Dieser Workshop ist zugeschnitten für:
Um das Beste aus diesem Training herauszuholen, sollten Sie über folgende Voraussetzungen verfügen:
Rabatt von 5% für SOUG-, SwissPUG- und DOAG-Mitglieder
Ausbilder
Adrien Obernesser