Zaawansowana Apache Kafka dla deweloperów aplikacji klienckich w Javie
by:
Najbliższe terminy tego szkolenia
Standardy JSystems
- Wszyscy nasi trenerzy muszą być praktykami i osiągać średnią z ankiet minimum 4.75 na 5. Nie ma wśród nas trenerów-teoretyków. Każdy trener JSystems ma bogate doświadczenie komercyjne w zakresie tematów z których prowadzi szkolenia.
- Wszystkie szkolenia mają format warszatowy. Każde zagadnienie teoretyczne jest poparte rzędem warsztatów w ściśle określonym formacie.
- Terminy gwarantowane na 100%. Jeśli jakiś termin jest oznaczony jako gwarantowany, oznacza to że odbędzie się nawet jeśli część grupy wycofa się z udziału. Ryzyko ponosimy my jako organizator.
- Do każdego szkolenia które wymaga jakiegokolwiek oprogramowania dostarczamy skonfigurowane, gotowe hosty w chmurze. Dzięki temu uczestnik nie musi nic instalować na swoim komputerze (i bić się z blokadami korporacyjnymi). Połączenie następuje przez zdalny pulpit lub SSH - w zależności od szkolenia.
Program szkolenia
- Konfiguracja środowiska lokalnego
- Docker Compose
- Kafka
- Kafka UI
- Schema Registry
- Kafka REST Proxy
- Testy integracyjne ze Spring Boot
- Testcontainers
- @MockitoSpyBean
- Testowanie kodu asynchronicznego - timeouty
- Docker Compose
- Architektura Kafki - zaawansowane koncepcje
- Replication and In-Sync Replicas
- Unclean leader election
- Cross-AZ Networking
- Rack awareness & fetch from follower
- Tiered Storage
- Kafka Queues
- Distributed tracing with OpenTelemetry
- Replication and In-Sync Replicas
- Kafka Producer
- Acks & Idempotent producer
- Producer retries
- Message Key i przypisywanie partycji
- Hot partitions
- Sticky Partitioner
- Custom Partitioner
- Batching
- Compression
- Kafka Consumer
- Poll timeout
- Poison Pill
- Exactly Once Processing
- Kafka Transactions
- Idempotent consumers
- Consumer Rebalancing & ConsumerRebalanceListener
- Non-Blocking Retries
- DLQ (DLT) i kiedy go używać
- Alternatywy dla podstawowego modelu współbieżności Kafki
- Parallel consumer
- Reactor Kafka
- Integracja Danych z Kafką
- Single Message Transforms w Kafka Connect
- CDC & Transactional Outbox Pattern
Opis szkolenia
Szkolenie odbywa się na żywo z udziałem trenera. Nie jest to forma kursu video!O szkoleniu w skrócie
Ten intensywny kurs jest przeznaczony dla doświadczonych deweloperów aplikacji klienckich Kafki, którzy chcą pogłębić swoje zrozumienie tej platformy. Nauczysz się budować wydajne, odporne na błędy aplikacje, unikać utraty danych i świadomie poruszać się w kompromisach między opóźnieniami, przepustowością i spójnością danych. Zbadamy również strategie optymalizacji kosztów i przedstawimy narzędzia open-source, które rozwiązują zaawansowane problemy.
Ćwiczenia z kodowania
To są warsztaty praktyczne, więc wiele tematów jest uzupełnionych o zazwyczaj krótkie ćwiczenia z kodowania.
Zakres szkolenia
Zgłębimy zaawansowane tematy związane z Kafka Producer API i Consumer API. Omówimy wybrane zaawansowane aspekty architektury Kafki oraz najnowsze zmiany, w tym Tiered Storage i Kafka Queues. Warsztaty obejmują również zwięzłe moduły dotyczące testowania klientów Kafki, integracji ze Spring Boot oraz integracji danych za pomocą Kafka Connect.
Co nie wchodzi w zakres
Podstawy Kafki
Uczestnicy powinni rozumieć, jak działa klaster Kafki, czym są partycje, konsumenci i producenci. Powinni również rozumieć działanie Consumer Groups, Consumers i Offsets.
Wskazane jest doświadczenie produkcyjne w tworzeniu aplikacji klienckich Kafki.
Schema Management i formaty serializacji
Chociaż jest to bardzo ważny temat, aby warsztaty były skoncentrowane, zarządzanie schematami nie wchodzi w ich zakres.
Zarządzanie klastrem
Te warsztaty są dla deweloperów aplikacji klienckich, a nie dla operatorów klastrów Apache Kafka, czym zazwyczaj zajmuje się dedykowany zespół.
Kafka Security
Aby zachować ścisłe skupienie na wydajności aplikacji, odporności i zaawansowanych wzorcach projektowych, te warsztaty nie obejmują konfiguracji bezpieczeństwa. Zakłada się, że uczestnicy znają podstawowe ustawienia bezpieczeństwa wymagane do połączenia się z ich klastrami.
Kafka Streams
Kafka Streams jest częścią Kafka API od lat, ale jego użycie maleje na rzecz dedykowanych platform do Stream Processingu, takich jak Flink czy RisingWave. Ze względu na złożoność Kafka Streams, często przypadki użycia, które mogłyby być dobrym dopasowaniem, są zamiast tego implementowane przy użyciu standardowego Consumer API.
Wymagane podstawy
- Docker
- Java i podstawy Spring Boot
- Podstawy Apache Kafka
Prowadzący szkolenie:
Jan Siekierski
Programista Java i Kotlin z 10-letnim doświadczeniem, z czego 5 lat jako Tech Lead.
Pasjonat Data Streamingu na którym obecnie koncentruje się w całości. Inne obszary w których się specjalizuje to Architektura Event-Driven, Mikroserwisy, DDD oraz Enterprise Data Architecture.
Obecnie niezależny Konsultant, Trener i Twórca, publikujący głównie na platformie LinkedIn.
Środowisko robocze
Nie jest wymagane instalowanie żadnego oprogramowania przez Uczestnika. Dostęp do gotowego środowiska na potrzeby tego szkolenia jest zapewniany każdemu Uczestnikowi przez organizatora.
Gdy na jakiś termin zgłosi się minimalna liczba osób, termin oznaczamy jako gwarantowany.
Jeśli jakiś termin oznaczony jest jako gwarantowany to oznacza to, że na 100% się odbędzie we wskazanym czasie i miejscu.
Nawet gdyby część takiej grupy zrezygnowała lub przeniosła się na inny termin, raz ustalony termin gwarantowany takim pozostaje.
Ewentualne ryzyko ponosimy my jako organizator.
Przejdź do terminów tego szkolenia
Sprawdź pozostałe szkolenia z kategorii:
Big Data
Zobacz
Sprawdź, co mówią o nas ci, którzy nam zaufali
Trenerzy kategorii Big Data
Michał Schielmann
Michał Schielmann
Jestem programistą z 12-sto letnim doświadczeniem, związanym głównie z ekosystemem Javy, ale również Pythonem, bazami danych, zagadnienami DevOps (Docker, Kubernetes, CI/CD pipelines) i frameworkami JavaScriptowymi. Moja ścieżka kariery prowadziła mnie przez różne branże – od telekomunikacyjnej, przez medyczną, bankową, do giełdy energii – dzięki czemu mogłem poznać wiele technologii i ich zastosowań w poszczególnych obszarach. Od kilku lat zaangażowany jestem w prowadzenie szkoleń i warsztatów, bo wierzę, że najlepszym sposobem na naukę jest przekazywanie wiedzy innym.
Dawid Grześków
Dawid Grześków
Specjalista IT z pięcioletnim doświadczeniem w środowisku danowym. W swojej karierze przeszedłem przez budowanie narzędzi wewnętrznych, analitykę oraz tworzenie systemów raportowych. Aktualnie pracuje jako Inżynier Danych, gdzie Spark i Databricks stanowią moje główne narzędzia pracy.
Na co dzień pracuje z technologiami chmurowymi na platformie Azure. Programuje w Pythonie, SQL oraz Sparku. Tworzę modele, hurtownie oraz jeziora danych. Integruję rozwiązania DevOps z procesami biznesowymi. Tworzę zaplecza całych platform i rozwijam procesy integracyjne.
Projekty w których brałem udział to m.in.:
- Integracja przepływów danych wspierających mi.n. SAPa, procesy korporacyjne
- Budowanie jezior danych w celu scentralizowania zasobów przedsiębiorstwa
- Budowanie modeli analitycznych, które dotychczas były niemożliwe do zrealizowania bez Sparka.
- Wdrażanie rozwiązań DevOps/DataOps
Posiadam doświadczenie pracy w międzynarodowych firmach, gdzie wspierałem zespoły w przyswajaniu wiedzy procesowej oraz narzędziowej. Jako praktyk, wychodzę z założenia, że tylko praktyczne szkolenia dają satysfakcjonujące efekty.
Jan Siekierski
Jan Siekierski
Programista Java i Kotlin z 10-letnim doświadczeniem, z czego 5 lat jako Tech Lead.
Pasjonat Data Streamingu na którym obecnie koncentruje się w całości. Inne obszary w których się specjalizuje to Architektura Event-Driven, Mikroserwisy, DDD oraz Enterprise Data Architecture.
Obecnie niezależny Konsultant, Trener i Twórca, publikujący głównie na platformie LinkedIn.
Ostatnie miejsca!