Tworzenie systemu RAG (Retrieval-Augmented Generation) za pomocą biblioteki LangChain i modeli LLM od OpenAI

Najbliższe terminy tego szkolenia
Standardy JSystems
- Wszyscy nasi trenerzy muszą być praktykami i osiągać średnią z ankiet minimum 4.75 na 5. Nie ma wśród nas trenerów-teoretyków. Każdy trener JSystems ma bogate doświadczenie komercyjne w zakresie tematów z których prowadzi szkolenia.
- Wszystkie szkolenia mają format warszatowy. Każde zagadnienie teoretyczne jest poparte rzędem warsztatów w ściśle określonym formacie.
- Terminy gwarantowane na 100%. Jeśli jakiś termin jest oznaczony jako gwarantowany, oznacza to że odbędzie się nawet jeśli część grupy wycofa się z udziału. Ryzyko ponosimy my jako organizator.
- Do każdego szkolenia które wymaga jakiegokolwiek oprogramowania dostarczamy skonfigurowane, gotowe hosty w chmurze. Dzięki temu uczestnik nie musi nic instalować na swoim komputerze (i bić się z blokadami korporacyjnymi). Połączenie następuje przez zdalny pulpit lub SSH - w zależności od szkolenia.
Program szkolenia
Moduł 1: Wprowadzenie
- Komunikacja z dużymi modelami językowymi (LLM) poprzez API
- Wprowadzenie do API OpenAI
- Podstawowe zasady pracy z modelami LLM (prompty, okno kontekstowe, role)
- Koszty korzystania z API
- Biblioteka LangChain
- Przegląd funkcji i zastosowań LangChain w tworzeniu systemów RAG
- Podstawowe klasy i moduły w LangChain
- Przykłady użycia (pipelines, chains)
- Zasada działania systemu RAG
- Koncepcja Retrieval-Augmented Generation – jak działa połączenie wyszukiwania i generowania tekstu?
- Typowe komponenty: Retriever, Generator, Pipeline
- Zalety systemu RAG w porównaniu z samodzielnymi modelami LLM
Moduł 2: Przygotowanie danych
- Loadery dokumentów
- Korzystanie z loaderów w LangChain
- Obsługa różnych formatów danych (.txt, .pdf, .docx)
- Odczytywanie tekstu z obrazów z wykorzystaniem AI
- Podział na chunki
- Dlaczego dzielimy dokumenty na mniejsze fragmenty?
- Algorytmy podziału (np. na podstawie liczby tokenów, zdań, akapitów)
Moduł 3: Wektorowa reprezentacja dokumentów
- Embedding
- Czym są i jak działają embeddingi?
- Generowanie embeddingów za pomocą różnych modeli
- Wektorowa baza danych (Qdrant)
- Wprowadzenie do Qdrant i jej zastosowań w RAG
- Operacje zapisu i odczytu na bazie wektorowej
- Integracja LangChain z Qdrant
- Wyszukiwanie podobnych wektorów
- Mechanizmy wyszukiwania w przestrzeni wektorowej (cosine similarity, dot product)
Moduł 4: Retrieval
- Retrieval w LangChain
- Konfiguracja i optymalizacja retrievera
- Hybrid retrieval (połączenie podejść wektorowych i klasycznych)
- Reranking
- Integracja retrievera z modelem generacyjnym
- Przekazywanie wyników wyszukiwania do LLM
- Tworzenie promptów opartych na wynikach wyszukiwania
Moduł 5: Ewaluacja systemu RAG
- Biblioteka DeepEval
- Wprowadzenie do biblioteki DeepEval
- Zastosowanie w systemach RAG
- Metryki ewaluacji wyszukiwania (retrieval)
- ContextualPrecisionMetric
- ContextualRecallMetric
- ContextualRelevancyMetric
- Metryki ewaluacji generacji (generation)
- AnswerRelevancyMetric
- FaithfulnessMetric
Moduł 6: Praktyczne projekty
w zależności od tego ile będzie czasu
- Projekt systemu RAG do wyszukiwania ofert sprzedaży mieszkań
Inteligentny asystent pośrednika nieruchomości, który na podstawie zapytania klienta zaproponuje zestaw najbardziej dopasowanych ofert. - System do wyszukiwania informacji o wydarzeniach fabularnych w książkach
Zaawansowane narzędzie do przeszukiwania treści książek, które pozwoli użytkownikowi znaleźć szczegółowe informacje o wydarzeniach, postaciach i miejscach, występujących w określonych fragmentach akcji.
Opis szkolenia
Szkolenie odbywa się na żywo z udziałem trenera. Nie jest to forma kursu video!To szkolenie wprowadzi Cię od podstaw do technik pracy z dużymi modelami językowymi (LLM).
Skupimy się na wykorzystaniu tego narzędzia do tworzenia systemów RAG, czyli generacji tekstu w oparciu o wiedzę znajdującą się w dokumentach, do których dostęp ma model. Przejdziemy przez wszystkie najważniejsze elementy systemu RAG - od wczytania i przetworzenia danych, przez zapis embeddingów w bazie wektorowej aż po wyszukiwanie i generację w oparciu o znalezione informacje. Na koniec stworzymy jeden lub więcej praktyczny projekt, który pozwoli Ci zobaczyć jak wygląda cały proces tworzenia systemu RAG.
Prowadzący szkolenie:
Patryk Palej
Programista Pythona od 2018 roku z backgroundem w matematycznym modelowaniu procesów fizycznych. Specjalizuje się w obszarach związanych z pozyskiwaniem, przetwarzaniem i analizą danych. Jako data scientist pracował w projektach dla branż takich jak telekomunikacja, media czy finanse. Doświadczony szkoleniowiec, który lubi i potrafi przekazywać wiedzę. W wolnym czasie podróżuje lub pracuje nad nowymi szkoleniami.
Stanowisko robocze

Do tego szkolenia każdy uczestnik otrzymuje dostęp do indywidualnej wirtualnej maszyny w chmurze. Ma ona zainstalowane i skonfigurowane wszystko co potrzebne do realizacji szkolenia. Maszyna będzie dostępna przez cały okres szkolenia.
Gdy na jakiś termin zgłosi się minimalna liczba osób, termin oznaczamy jako gwarantowany.
Jeśli jakiś termin oznaczony jest jako gwarantowany to oznacza to, że na 100% się odbędzie we wskazanym czasie i miejscu.
Nawet gdyby część takiej grupy zrezygnowała lub przeniosła się na inny termin, raz ustalony termin gwarantowany takim pozostaje.
Ewentualne ryzyko ponosimy my jako organizator.
Przejdź do terminów tego szkolenia

Sprawdź, co mówią o nas ci, którzy nam zaufali
Trenerzy kategorii Python




Programista z ponad 12 letnim stażem, pracował dla klientów z Norwegii, Szwecji, Wielkiej Brytanii oraz Niemiec. Pracował dla takich firm jak Schibsted Tech Polska oraz PrimeQ tworząc strony o bardzo dużym natężeniu ruchu, skrypty automatyzujące pracę innych, w tym także crawlery. Trener, który na sali spędził ponad 5000h prowadząc szkolenia z baz danych, programowania w Pythonie i PHP.
Kacper uważa, że język programowania to tylko narzędzie w rękach doświadczonego dewelopera, dlatego nieustannie lubi uczyć się nowych rzeczy oraz zarażać miłością do programowania innych (stąd pewnie ten kanał na Youtubie -> Kacper Sieradziński).




DevOps Enginner z zamiłowaniem do części "Dev" wspomnianej roli. Pasjonat ideologii DevOps, ze szczególnym uwzględnieniem potoków dostarczania oprogramowania. Swoje doświadczenie opiera o dostarczanie skalowalnych usług mikroserwisowych oraz projekty wdrażanie w AWSie dla dużych klientów. W codziennej pracy jest zaangażowany na wielu poziomach cyklu dostarczania oprogramowania. Od wielu lat tworzy narzędzia dla deweloperów, które skracają cykl, ułatwiają prace i definiują standardy w zespołach.
Posiada doświadczenie w zarzadzaniu zespołami developerskimi. Absolwent Politechniki Warszawskiej, swoja karierę w IT zaczynał właśnie od szkoleń w JSystems, które pozwoliły mu nabrać wiatru w żagle i pomogły spełnić marzenia o karierze w IT. Dziś w JSystems jako trener zakresu AWS, który zachęci was do korzystania z chmury Amazona i pokaże, że nie jest to takie trudne i "kosztowne".
Certyfikowany inżynier z zakresu architektury, DevOps i Networkingu w AWS. Zwolennik "przemyślanego" podejścia zwinnego w prowadzeniu projektów. Charakteryzuje go podejście do wyzwan z "Can do attitude" i "Get Things Done". W swojej pracy najbardziej ceni możliwość rozwiazywania problemów biznesowych w oparciu o najnowsze technologie chmurowe. Zwolennik praktyki nad teorią. Ostatnio mocno zaangażowany w adaptacje możliwości jakie niesie ze sobą platforma Backstage.io.
Programista Pythona od 2018 roku z backgroundem w matematycznym modelowaniu procesów fizycznych. Specjalizuje się w obszarach związanych z pozyskiwaniem, przetwarzaniem i analizą danych. Jako data scientist pracował w projektach dla branż takich jak telekomunikacja, media czy finanse. Doświadczony szkoleniowiec, który lubi i potrafi przekazywać wiedzę. W wolnym czasie podróżuje lub pracuje nad nowymi szkoleniami.

