Terminy gwarantowane
Znajdź szkolenie:
Znaleźliśmy 471 terminów, które mogą spełniać Twoje oczekiwania

O szkoleniu
Szkolenie z zakresu zarządzania danymi przestrzennych z wykorzystaniem rozszerzenia PostGIS do bazy PostgreSQL.
Cel szkolenia
Zapoznanie z niezbędnymi informacjami o danych przestrzennych oraz możliwościami ich przechowywania, przetwarzania i analizy z wykorzystaniem PostGIS. Uczestnicy zostaną zapoznani z niezbędnymi informacjami dotyczącymi typów i formatów danych przestrzennych. Poznają najczęściej stosowane w Polsce układy współrzędnych. Liczne praktyczne przykłady pozwolą na zapoznanie się z funkcjami przestrzennymi oferowanymi przez PostGIS. Dodatkowo uczestnicy dowiedzą się, jak optymalizować zapytania wykonywane na danych przestrzennych.
Dla kogo przeznaczone jest szkolenie?
Szkolenie o profilu ogólnym, którego adresatami są osoby chcące wykorzystać bazę PostgreSQL do zarządzania danymi przestrzennymi. Szkolenie obejmuje podstawowe informacje o danych przestrzennych i nie jest wymagana wcześniejsza znajomość tej tematyki.
Co w Twojej pracy usprawni PostGIS?
Nauczysz się efektywnie zarządzać danymi przestrzennymi w bazie PostgreSQL. Będziesz mógł udostępniać zgromadzone dane w swoim miejscu pracy. Pracownicy będą mogli korzystać z tego samego źródła danych i wspólnie je edytować. Zwiększysz wydajność i efektywność pracy osób korzystających z danych przestrzennych. Zwiększysz swoją pewność w pracy, dzięki nabyciu nowych umiejętności. Zdecydowanie podniesiesz swoje szanse na awans. Radykalnie podniesiesz poziom swoich kompetencji zawodowych.
Gdzie użyjesz nabytej wiedzy?
Podniesiesz efektywność pracy związanej z danymi przestrzennymi. Zauważysz wzrost komfortu w dostępie do danych. Osiągniesz nową wyższą jakość danych i ich aktualizacji.
Czego się nauczysz?
Usprawnisz pracę z danymi przestrzennymi. Nauczysz się importować do bazy PostgreSQL dane przestrzenne z różnych źródeł. Będziesz w stanie utworzyć ujednolicony system udostępniający dane przestrzenne współpracownikom. Będziesz wiedział jak analizować relacje przestrzenne pomiędzy obiektami.
Prowadzący szkolenie:
Dariusz Górski
Geoinformatyk z długoletnim stażem pracy z danymi przestrzennymi. Na co dzień zajmuje się tworzeniem i wdrażaniem systemów informacji przestrzennej w jednostkach administracji rządowej i samorządowej różnych szczebli. Jego podstawowe narzędzie pracy to baza danych PostgreSQL oraz PostGIS. Pasjonat pracy z danymi i tworzenia narzędzi usprawniających codzienne czynności. Dzięki dużemu praktycznemu doświadczeniu zapozna uczestników szkolenia z wykorzystaniem PostGIS do przechowywania i przetwarzania danych przestrzennych.

Szkolenie ma na celu dostarczenie uczestnikom kompleksowej wiedzy na temat technik optymalizacji bazy danych MariaDB, z uwzględnieniem zarówno konfiguracji systemu operacyjnego, jak i specyfiki samej bazy danych. Uczestnicy poznają cele optymalizacji oraz znaczenie konfiguracji systemu operacyjnego Linux dla wydajności MariaDB.
W ramach szkolenia omówione zostaną kluczowe zagadnienia dotyczące zarządzania zasobami systemowymi, takie jak konfiguracja CPU, pamięci RAM, ustawienia sieciowe oraz zarządzanie przestrzenią dyskową. Uczestnicy nauczą się również korzystać z narzędzi monitorujących, aby efektywnie analizować wydajność systemu i bazy danych.
Szkolenie obejmuje także zaawansowane techniki zarządzania pamięcią, operacjami I/O, buforami oraz limitami sesji. Poznają metody monitoringu blokad i transakcji. Uczestnicy dowiedzą się, jak analizować i poprawiać wydajność zapytań, a także jak wykorzystywać partycjonowanie i inne techniki optymalizacji schematów.
Korzyści ze szkolenia
Uczestnik, który ukończy to szkolenie, zyska:
- Zaawansowaną wiedzę z zakresu optymalizacji wydajności bazy danych MariaDB.
- Praktyczne umiejętności w zakresie konfiguracji systemu operacyjnego Linux oraz zarządzania zasobami.
- Znajomość technik optymalizacji zapytań i indeksów.
- Umiejętność skutecznej analizy metryk bazy przy użyciu narzędzi monitorujących, takich jak PMM.
- Wiedzę z zakresu zarządzania pamięcią i operacjami I/O.
- Zrozumienie strategii partycjonowania.
- Umiejętność dostosowania środowiska do specyficznych potrzeb.
- Znajomość zastosowania narzędzi analitycznych systemu oraz bazy danych.
Dla kogo ?
Szkolenie jest skierowane do specjalistów z doświadczeniem w pracy z bazami danych, które chcą poprawić wydajność istniejących systemów, a także dla administratorów systemów Linux na których oparte są środowiska baz danych, chcących nauczyć się metod optymalizacji konfiguracji i zarządzania zasobami systemowymi. Szkolenie skierowane jest również do tych, którzy są odpowiedzialni za monitorowanie wydajności produkcyjnych bazy danych MySQL/MariaDB.
Stanowisko robocze
Na potrzeby szkolenia każdy uczestnik otrzymuje dostęp do dedykowanego indywidualnego środowiska w chmurze. Na którym zainstalowane i skonfigurowane jest wszystko co potrzebne do realizacji szkolenia. Środowisko będzie dostępne przez cały okres szkolenia.
Prowadzący szkolenie:
Bartosz Partyka
Doświadczony ekspert IT z ponad dekadą praktyki w administracji bazami danych oraz zapewnianiu wysokiej dostępności i wydajności systemów. Jako lider zespołu bazodanowego i inżynier ICT w branży telekomunikacyjnej, a także w projektach zewnętrznych, zarządza ponad setką środowisk, w tym bazami PostgreSQL i MySQL/MariaDB oraz projektuje złożone systemy monitorujące. Specjalizuje się w optymalizacji architektury, konfiguracji, zapytań, a nawet kodu.
Projektował i wdrażał liczne systemy o wysokiej dostępności. Zajmował się zaawansowaną diagnostyką systemów i sieci przy użyciu narzędzi takich jak Dynatrace, Zabbix, PMM oraz własnych rozwiązań. Posiada rozległe umiejętności w zakresie implementacji rozwiązań ICT zdobyte w dużych projektach związanych z monitoringiem, provisioningiem i architekturą korporacyjną. Jest pasjonatem świata open-source, innowacyjnych technologii oraz automatyzacji procesów DevOps. Uwielbia długie debugowanie i odkrywanie najbardziej nieoczywistych rozwiązań.

Na szkoleniu zdobędziesz wiedzę i umiejętności niezbędne do efektywnej automatyzacji testowania jednostkowego i integracyjnego w aplikacjach JVM z wykorzystaniem frameworka Spock oraz języka Groovy. Nauczysz się, jak pisać czytelne, zwięzłe i skuteczne testy jednostkowe i integracyjne (wykorzystujące framework Spring/Spring Boot), a także jak skonfigurować środowisko testowe przy użyciu Maven lub Gradle.
Szkolenie obejmuje również naukę języka Groovy, jego możliwości w testowaniu, oraz zaawansowane funkcje frameworka Spock, co pozwoli na pełną kontrolę nad procesem testowania aplikacji.
Prowadzący szkolenie:
Maciej Górnicki
Programista i projektant z 13-letnim doświadczeniem, specjalizujący się w Javie i full-stack development. Pracował nad dużymi projektami korporacyjnymi w sektorach fintech oraz insurtech, zdobywając bogate doświadczenie w tworzeniu systemów rozproszonych oraz integracji opartej o API i zdarzenia.
Jako specjalista w dziedzinie Java i architektury oprogramowania, zajmował się również strategicznym rozwojem kompetencji technicznych w organizacji, będąc aktywnym rekruterem technicznym, trenerem oraz mentorem. Pasjonat współpracy z ekspertami domenowymi i klientami, z zamiłowaniem do prostoty i czytelności, z zainteresowaniem Domain Driven Design (DDD) oraz innymi podejściami inżynierii oprogramowania zorientowanymi na domenę biznesową.


O szkoleniu w skrócie
Celem szkolenia jest przekazanie uczestnikom kompleksowej wiedzy na temat sztucznej inteligencji (AI) oraz inżynierii promptów, a także zapoznanie ich z narzędziami i technikami, które pozwolą efektywnie wykorzystać AI w różnych branżach.
Szkolenie obejmuje zarówno teoretyczne podstawy, jak i praktyczne aspekty pracy z modelami AI, w tym optymalizowanie zapytań (promptów) oraz wykorzystywanie AI do automatyzacji procesów biznesowych, kreatywności, a także wykrywania treści generowanych przez AI.
Dla kogo jest to szkolenie?
Szkolenie jest skierowane do osób, które chcą poznać i nauczyć się wykorzystywać sztuczną inteligencję w pracy zawodowej, w tym menedżerów, specjalistów IT, analityków danych, marketerów, twórców treści oraz osób zainteresowanych rozwojem w obszarze nowoczesnych technologii.Prowadzący szkolenie:
Sebastian Koziatek
Administrator systemów IT starej daty, pracujący z systemami uniksowymi od ponad 25 lat.
Od ponad 15 lat pracujący w jako administrator dużych środowisk serwerowych w bankach i korporacjach. Administrator wirtualizacji, konteneryzacji i systemów operacyjnych.
Od 5 lat aktywnie zajmujący się migracją infrastruktur firmowych do chmur z wykorzystaniem nowych technologii - głownie Docker i Kubernetes.


Szkolenie przeznaczone dla osób które już znają podstawy SQL a chciałyby poznać jego zaawansowane aspekty w implementacji PostgreSQL oraz język PL/pgSQL.
Zakres zaawansowanego SQL obejmuje najczęściej wykorzystywane elementy specyficzne dla tego języka w bazach PostgreSQL. W tym analiza danych, wyrażenia regularne czy zaawansowane aspekty agregacji.
Zakres PL/pgSQL obejmuje naukę tego języka od podstaw do aspektów takich jak tworzenie własnych funkcji rozszerzających język SQL czy wyzwalacze.

"Wirtualizacja i konteneryzacja od postaw" to kompleksowy kurs, który wprowadza uczestników w tematykę wirtualizacji oraz konteneryzacji z wykorzystaniem Dockera i Proxmoxa. Kurs obejmuje zarówno teoretyczne aspekty, jak i praktyczne umiejętności niezbędne do efektywnego zarządzania środowiskami wirtualnymi i kontenerowymi. Uczestnicy zdobędą wiedzę na temat architektury maszyn wirtualnych, funkcjonowania kontenerów oraz ich zastosowania w codziennych operacjach IT, budowania dużych infrastruktur informatycznych oraz zarządzania ich zasobami.
Dla kogo szkolenie jest skierowane: Szkolenie jest dedykowane dla osób, które chcą rozwijać swoje umiejętności w obszarze wirtualizacji i konteneryzacji. Jest to idealna propozycja dla:
- Administratorów systemów i sieci,
- Programistów i deweloperów, którzy chcą zrozumieć, jak wirtualizacja i konteneryzacja wpływają na rozwój aplikacji,
- Osób zajmujących się DevOps, które pragną wdrożyć najlepsze praktyki w zakresie zarządzania infrastrukturą,
- Studentów i początkujących specjalistów IT, którzy chcą zdobyć solidne podstawy w zakresie nowoczesnych technologii wirtualizacji.
Korzyści po ukończeniu szkolenia: Uczestnicy, którzy ukończą szkolenie, będą mieli możliwość:
- Zrozumienia różnic między maszynami wirtualnymi a kontenerami oraz ich zastosowania w praktyce,
- Podstaw budowania infrastruktur IT z uwzględnieniem kontenerów i maszyn wirtualnych
- Nabycia umiejętności w zakresie instalacji, konfiguracji oraz zarządzania środowiskami Docker i Proxmox,
- Tworzenia i zarządzania własnymi obrazami Docker oraz korzystania z Docker Compose w celu budowy złożonych aplikacji,
- Efektywnego zarządzania zasobami wirtualnymi, w tym tworzenia snapshotów oraz backupów,
- Umiejętności implementacji rozwiązań w kontekście monolitów oraz mikroserwisów, co jest niezwykle istotne w nowoczesnym świecie rozwoju oprogramowania.
Prowadzący szkolenie:
Sebastian Koziatek
Administrator starej daty, pracujący z systemami uniksowymi od ponad 25 lat.
Od ponad 15 lat pracujący w jako administrator dużych środowisk serwerowych w bankach i korporacjach. Administrator wirtualizacji, konteneryzacji i systemów operacyjnych.
Od 5 lat aktywnie zajmujący się migracją infrastruktur firmowych do chmur z wykorzystaniem nowych technologii - głownie Docker i Kubernetes
Cel szkolenia
Szkolenie dla programistów i administratorów, chcących wejść w świat orchiestratora Kubernetes lub poszerzyć swoją obecną wiedzę. Szkolenie przedstawi koncepcje tablic helmowych oraz sposób ich użytkowania i zarządzania. Podczas szkolenia nauczysz się również jak pisać oraz udstępniać swoje tablice HELM oraz w pełni wykorzystać potencjał jaki kryje się tym orchistratorze.
Wymagania
Minimum roczne doświadczenie w zarządzaniu aplikacjami używając orkiestratora Kubernetes lub któregoś z poniższych szkoleń:
- Docker – konteneryzacja i zarządzanie aplikacjami oraz microserwisami
- Kubernetes - orkiestracja kontenerów
- Docker i Kubernetes: od zera do orkiestracji kontenera
- Kompleksowe szkolenie - Konteneryzacja Docker i Kubernetes: od zera do bohatera
- Kompleksowe wprowadzenie do DevOps - szkolenie w formie warsztatowej
Prowadzący szkolenie:
Maciej Krajewski
Pasjonat kultury DEVOPS, zaprawiony w bojach programista JAVA i DEVOPS od 15 lat (jeszcze zanim to było modne). Ma wieloletnie doświadczenie w zarządzaniu wszelorakimi zespołami developerskimi. Zjadł zęby na realizacji projektów informatycznych w metodologiach klasycznych i zwinnych. Od systemów telekomunikacyjnych opartych na VoIP, rozwiązań video dla firm ubezpieczeniowych, banków, kilka fintechowych blockchainów, po centralny system do przetwarzania faktur medycznych dla rządu w Ghanie. Uwielbia proste rozwiązania i na codzień jest leniwy, dlatego jeżeli może automatyzuje co może - stąd wielka miłość do konteneryzacji i k8s’a, technologi CI/CD oraz CM! Maciej posiada wieloletnie doświadczenie trenerskie, Master of Ceremony na scenie TECH konferencji Infoshare, na codzień zarządza holendersko-polską technologiczną Yameo.

Szkolenie w skrócie
Szkolenie to jest dedykowane zarówno dla testerów, developerów, devops, system administratorów. Szkolenie w formie from zero to hero, czyli od podstawowych do bardziej zaawansowanych tematów. W szkoleniu używany będzie gitlab cloud.
Zrozumienie procesu wytwarzania oprogramowania w firmie jest kluczowe do tworzenia skryptów oraz procesów, którego wynikiem będzie niezawodny proces ciągłej integracji oprogramowania.
Szkolenie umożliwi uczestnikom poznanie narzędzia jakim jest Gitlab w stopniu, który umożliwi na samodzielne tworzenie pipeline’ów, od tworzenia testów, budowania aplikacji, wykrywania podatności kontenerów oraz wdrażanie aplikacji na środowisko.
Bardzo ważnym aspektem w nowoczesnym świecie IT jest także bezpieczeństwo, które również zostanie poruszone na szkoleniu w kontekście Gitlaba.
Korzyści ze szkolenia
Uczestnik po zakończeniu szkolenia będzie posiadał następującą wiedzę:
- Konfiguracja Gitlab Runner w kontekście nowoczesnych rozwiązań, skalowalnych i umożliwiających wykorzystanie w całej firmie
- Poznanie fundamentów oraz najlepszych praktyk pisania Gitlab CI, które pozwolą na stworzenie dowolnego pipeline’u
- Automatyczne wdrażanie aplikacji na środowisko AWS/GCP
- Tworzenie kompleksowego pipeline’u do ciągłej integracji oprogramowania
- Wykorzystanie Gitlaba do zarządzania infrastrukturą.
- Samodzielne rozwiązywanie problemów w środowisku Gitlab
Prowadzący szkolenie:
Mateusz Gul
Z wykształcenia mgr telekomunikacji ze specjalnością sieci komputerowe, absolwent Akademii Górniczo-Hutniczej w Krakowie. DevOps Engineer z prawie 5 letnim doświadczeniem. Swoją przygodę w IT zaczynał jako System Administrator. Posiada szeroką wiedzę i doświadczenie w dziedzinie automatyzacji. Uwielbia automatyzować codzienne zadania, na co dzień korzysta narzędziami typu Gitlab, Jenkins, Terraform, CDK. Zna bardzo dobrze kulturę DevOps oraz wdraża na co dzień procesy CI/CD. Pracował zarówno w zespołach deweloperskich wspomagając proces wytwarzania oprogramowania, jak i również wdrażał i utrzymywał systemy produkcyjne w klastrach Kubernetes.

Szkolenie przeznaczone jest dla programistów, chcących wyrobić w sobie nawyk pisania czytelnego i zrozumiałego dla innych kodu.
Skupiamy się nie tylko na czystym kodzie jako takim, ale pokazujemy również, jak dobrze pisać programy przy zastosowaniu paradygmatu programowania obiektowego.
Następnie w warunkach warsztatowych pokazujemy jak zastosować wybrane wzorce projektowe w realnych przypadkach i kiedy dla danego problemu można zastosować więcej niż jeden wzorzec.
Do uczestnictwa w szkoleniu wymagana jest podstawowa znajomość języka Java i biblioteki JUnit.
Prowadzący szkolenie:
Marcin Chrost
Jestem programistą z ponad 15-letnim doświadczeniem. W trakcie swojej kariery kilka
razy zmieniałem obszary, z którymi miałem do czynienia (poczynając
od niskopoziomowego programowania w C, poprzez fullstackowe zabawy
w RubyOnRails, aż do prawdziwego backendu w Javie).
Odkąd pamiętam, zawsze lubiłem dzielić się wiedzą z innymi i sprawiało to satysfakcję
obu stronom tego procesu. Dlatego naturalną konsekwencją było to, iż zostałem
kilka lat temu profesjonalnym trenerem IT.
Prowadzenie szkoleń pozwala mi również na każdorazowe powtórzenie i ugruntowanie
swojej wiedzy, co potem bardzo przydaje się w pracy projektowej. Natomiast to, co daje
mi największe zadowolenie jako trenerowi, to sytuacja gdy uczeń przerośnie mistrza -
wtedy wiem, że dałem z siebie wszystko, a moja praca przyniosła owoce.

To szkolenie wprowadzi Cię od podstaw do technik pracy z dużymi modelami językowymi (LLM).
Skupimy się na wykorzystaniu tego narzędzia do tworzenia systemów RAG, czyli generacji tekstu w oparciu o wiedzę znajdującą się w dokumentach, do których dostęp ma model. Przejdziemy przez wszystkie najważniejsze elementy systemu RAG - od wczytania i przetworzenia danych, przez zapis embeddingów w bazie wektorowej aż po wyszukiwanie i generację w oparciu o znalezione informacje. Na koniec stworzymy jeden lub więcej praktyczny projekt, który pozwoli Ci zobaczyć jak wygląda cały proces tworzenia systemu RAG.
Prowadzący szkolenie:
Patryk Palej
Programista Pythona od 2018 roku z backgroundem w matematycznym modelowaniu procesów fizycznych. Specjalizuje się w obszarach związanych z pozyskiwaniem, przetwarzaniem i analizą danych. Jako data scientist pracował w projektach dla branż takich jak telekomunikacja, media czy finanse. Doświadczony szkoleniowiec, który lubi i potrafi przekazywać wiedzę. W wolnym czasie podróżuje lub pracuje nad nowymi szkoleniami.


Domyślną bazą danych używaną podczas szkolenia jest udostępniony serwer baz danych Microsoft SQL Server. Nie jest to szkolenie z zakresu tworzenia zapytań SQL. Znajomość języka SQL jest zalecana, ale nie wymagana. Instalacja serwera bazy danych po stronie uczestnika nie jest wymagana.
O szkoleniu
Podstawowe szkolenie z zakresu obsługi Microsoft Power BI desktop rozszerzone o tematykę pracy z bazami danych SQL. Szkolenie o profilu ogólnym, którego adresatami są osoby zajmujące się przetwarzaniem i analizą dużej ilości danych, dla których arkusz kalkulacyjny już nie wystarcza. Dodatkowy moduł SQL pozwala na wydajniejszą i szybszą pracę z danymi.
Cel szkolenia
Zapoznanie z terminologią i narzędziami niezbędnymi w pracy z Microsoft Power BI desktop współpracującym z serwerem baz danych SQL. Poznanie podstaw obsługi narzędzia oraz wykorzystanie go w tworzeniu raportów i analiz.
Dla kogo przeznaczone jest szkolenie?
Szkolenie o profilu ogólnym, którego adresatami są osoby zajmujące się przetwarzaniem i analizą dużej ilości danych, analitycy, księgowi, a także programiści i testerzy oprogramowania. Tematyka szkolenia obejmuje pracę z serwerem SQL.
Co w Twojej pracy usprawni Power BI?
Nauczysz się efektywnie pobierać dane. Zoptymalizujesz sposoby pobierania i przekształcania danych zlokalizowanych na serwerze SQL. Zdobędziesz umiejętność korzystania z najnowszego narzędzia analitycznego. Zwiększysz swoją pewność w pracy, dzięki nabyciu nowych umiejętności. Zdecydowanie podniesiesz swoje szanse na awans. Radykalnie podniesiesz poziom swoich kompetencji zawodowych.
Gdzie użyjesz nabytej wiedzy?
Podniesiesz efektywność pracy związanej z tworzeniem raportów i w narzędziach BI powiązanych z bazą danych SQL. Zauważysz też wzrost komfortu w dostępie do danych. Osiągniesz nową wyższą jakość prezentacji danych i ich aktualizacji.
Czego się nauczysz?
Usprawnisz wymianę informacji z współpracownikami. Będziesz w stanie utworzyć ujednolicony system raportujący bazujący na danych z serwera SQL. Standaryzacja metod generowania raportów i tworzenia zestawień dla analiz przestanie być dla Ciebie problemem. Równocześnie przeniesiesz bezpieczeństwo tworzonych analiz na nowy wyższy poziom.
Prowadzący szkolenie:
Sebastian Stasiak
Deweloper aplikacji i baz danych, z tendencją do dzielenia się wiedzą jako trener technologii informatycznych. Posiada doświadczenie w realizacji nietypowych i wymagających projektów IT. Dzięki wieloletniej pracy w charakterze wdrożeniowca, potrafi działać w trudnych warunkach, implementując niestandardowe i co ważne działające rozwiązania. Wychodząc z założenia, że najpierw ma działać, a później wyglądać, stawia w pierwszej kolejności na dane. Potrafi dogadać się z bazami danych używając języka SQL. Używa regularnie Oracle, SQL Server, PostgreSQL, MySQL, Azure SQL, a także mniej popularnych jak IBM DB2, Access. Nie jest mu obce zastosowanie Microsoft Dataverse. Po opanowaniu danych dokonuje ich integracji i analizy w Power BI lub Excel BI z użyciem Power Query, Języka M, DAX a jak potrzeba to i VBA. Potrafi całkiem sprawnie opublikować wyniki pracy w usłudze Power BI, Power Apps lub Sharepoint 365. Na koniec stawia na automatyzację każdego etapu prac, poprzez tworzenie procedur, skryptów i jobów SQL, a także Power Automate. Tak, tego desktopowego też.


Szkolenie przeznaczone dla osób, które już miały do czynienia do pisaniem prostych zapytań do bazy danych Oracle. W ramach szkolenia omawiane są nieco bardziej zaawansowane zagadnienia z zakresu posługiwania się językiem SQL, między innymi takie jak pisanie zapytań w oparciu o więcej niż jedną tabelę, modyfikacja danych w oparciu o inne tabele, czy też przywracanie zmian, które już zostały zapisane.

O szkoleniu w skrócie
Szkolenie z zaawansowanych aspektów wykorzystania React w tworzeniu oprogramowania. W trakcie szkolenia zapoznamy się z elementami renderowalnymi, komponentami i ich cyklem życia, React Routerem, Reduxem, testowaniem w React.
Na koniec jako podsumowanie stworzymy kompletny projekt z wykorzystaniem nowo nabytych umiejętności. Służy to nie tylko utrwaleniu wiedzy. Taki projekt będzie też świetnym źródłem copy-paste na przyszłość ;)
Dla kogo to szkolenie?
Szkolenie kierowane jest do osób, które:- znają JavaScript w stopniu co najmniej średnio-zaawansowanym,
- miały już styczność z Reactem
- znają w stopniu podstawowym HTML i CSS
- Pisały testy automatyczne do kodu
- chciałyby zgłębić wiedzę w zakresie zaawansowanych technik tworzenia interaktywnych aplikacji
- JavaScript - poziom średnio-zaawansowany
- Testowanie - poziom podstawowy
- podstawy HTML i CSS
- podstawy React
Prowadząca szkolenie:
Agata Malec
Absolwentka Akademii Górniczo-Hutniczej na kierunku Inżynieria Systemów i Oprogramowania oraz Politechniki Krakowskiej na kierunku Grafika Komputerowa i Multimedia. Swoją przygodę z programowaniem rozpoczęła w 2012 roku pracując w małej agencji kreatywnej na Saskiej Kępie. Od tamtego czasu przeszła przez kilka firm od małych start-upów po duże korporacje, ciągle zwiększając swoje umiejętności. W 2016 roku rozpoczęła współpracę z jedną ze szkół programowania, w której uczyła początkujących programistów tworzenia stron i aplikacji webowych. Aktualnie pracuje w jednej z większych warszawskich firm rozwijając oprogramowanie dla klientów z całego świata. Prowadzi podstawowe i zaawansowane szkolenia zarówno z JavaScript jak i z technologii takich jak m.in.: React, Redux. Wystąpiła na kilku konferencjach (m.in. na 4Developers i Programistok.) oraz prowadziła wiele warsztatów w ramach inicjatywy Women in Technology, Geek Girls Carots, Girls in IT i innych.


Tworzysz aplikacje webowe? A może takimi zarządzasz? Twój szef wymaga od Ciebie rekomendacji pod kątem bezpieczeństwa aplikacji webowej a Ty nie wiesz co zrobić? A może sam chciałbyś zmienić swoją ścieżkę zawodową i zostać pentesterem albo red teamerem?
Jesteś administratorem systemów Linux, Windows? A może takimi systemami zarządzasz?
Twój szef wymaga od Ciebie rekomendacji pod kątem bezpieczeństwa systemów operacyjnych a Ty nie wiesz co zrobić?
Jeżeli szukasz szkolenia kompleksowego- To szkolenie jest dla Ciebie!
Czy zastanawiałeś / zastanawiałaś się kiedyś w jaki sposób można przetestować aplikację webową a następnie zarekomendować czynności poprawiające jej bezpieczeństwo?
Czy zastanawiałeś / zastanawiałaś się kiedyś w jaki sposób można przetestować oraz następnie zarekomendować czynności poprawiające bezpieczeństwo dla danego systemu operacyjnego?
Musimy być bowiem świadomi, że każda aplikacja webowa dostępna z poziomu sieci Internet, oraz każdy system operacyjny skonfigurowany w sposób domyślny może być narażony na działania niepożądane ze strony "hackerów".
Na tym szkoleniu uczestnicy dowiedzą się:
- W jaki sposób przetestować systemy operacyjne z rodziny Linux oraz Windows, w tym ich subkomponenty;
- W jaki sposób wykonać raport z tak przeprowadzonego testu;
- W jaki sposób uzupełnić raport o rekomendacje, które poprawią bezpieczeństwo badanego systemu operacyjnego.
- W jaki sposób przetestować aplikację webową;
- W jaki sposób wykonać raport z tak przeprowadzonego testu;
- Jakie rekomendacje, które poprawią bezpieczeństwo badanej aplikacji webowej mogą zostać wydane w ramach określonych podatności;
- Jakie są najpopularniejsze typy ataków, które mogą spotkać naszą aplikację webową.
Po szkoleniu, każdy uczestnik będzie posiadał fundamentalną wiedzę z zakresu wykonywania testów penetracyjnych web aplikacji oraz wykonywania testów penetracyjnych systemów operacyjnych z rodziny Linux oraz Windows dzięki czemu będzie mógł rekomendować lub/i wdrożyć niezbędne poprawki bezpieczeństwa w organizacji i nie tylko.
Prowadzący szkolenie:
Adrian Chaber
Inżynier informatyki zawodowo związany z SALESManago, gdzie jako Head of IT Security stawia czoła wyzwaniom związanym z bezpieczeństwem tworzonego przez firmę oprogramowania oraz zgodnością z normami i standardami bezpieczeństwa informatycznego w ramach całej organizacji. Doświadczenie zdobywał między innymi u takich organizacji jak IBM, ING czy Akamai. Pasjonat informatyki i szeroko pojętej wiedzy. Na zadawane pytania, na które nie zna odpowiedź zawsze odpowiada "jeszcze tego nie wiem, ale na pewno się dowiem".

O szkoleniu w skrócie
Szkolenie poświęcone jest Apache Spark - nowoczesnemu narzędziu do przetwarzania danych, wykorzystywanym przez czołowe firmy z Doliny Krzemowej.
Uczestnicy szkolenia zapoznają się z platformą Databricks, nauczą się tworzyć pipeline"y ETL w Spark SQL i PySpark oraz efektywnie przetwarzać różnorodne typy danych.
Program obejmuje najlepsze praktyki programistyczne, które usprawnią codzienną pracę z danymi. To kompleksowe szkolenie dostarczające praktycznej wiedzy i umiejętności kluczowych w pracy z dużymi zbiorami danych.
Cel szkolenia
Praca z systemem Spark oraz platformą Databricks. Opanowanie praktycznych umiejętności niezbędnych do skutecznej realizacji projektów danowych w nowoczesnym środowisku, które kształtuje współczesne standardy w obszarze Big Data.
Dla kogo przeznaczone jest szkolenie?
- Analityków Danych , którzy chcą podnieść swoje umiejętności w zakresie pracy z danymi i rozszerzyć możliwości kariery
- Inżynierów Danych , pragnących uzupełnić wiedzę na temat Databricks. Szkolenie szczególnie przyda się osobom znającym już podobne rozwiązania, takie jak Snowflake czy Microsoft Fabric
- Programistów , którzy postanowili zostać Inżynierami Danych
- Data Science , którzy chcą opanować Sparka i wykorzystywać go w projektach
Gdzie użyjesz nabytej wiedzy?
- W codziennej pracy z Platformą Databricks oraz Sparkiem
- W projektach wymagających elastycznego podejścia pod kątem wykorzystywanych zasobów
- Przy budowaniu systemów analitycznych dla firmy
Czego się nauczysz?
- Budowy i optymalizacji pipeline"ów danych (ELT/ETL) - automatyzacja procesów przetwarzania danych od surowych plików po gotowe zestawy do analizy.
- Analizy dużych zbiorów danych - efektywnego przetwarzanie i analizy milionów rekordów przy użyciu Sparka, zarówno w SQL, jak i Pythonie.
- Tworzenia systemów raportowania i dashboardów - integracji przetworzonych danych z narzędziami analitycznymi, takimi jak Power BI, Tableau.
- Integracji danych z różnych źródeł - łączenia danych z baz relacyjnych, plików CSV, Parquet, systemów chmurowych (Azure, AWS, GCP).
- Przygotowania danych do analiz i uczenia maszynowego - oczyszczanie, transformacja i formatowanie danych w sposób umożliwiający ich wykorzystanie w modelach machine learning.
- Optymalizacji kosztów i wydajności w chmurze - dzięki umiejętności efektywnego zarządzania zasobami Spark na platformie Databricks.
Wymagania co do uczestnika
- Podstawowa znajomość SQL
- Podstawowa znajomość Pythona
- Podstawowa znajomość Git
- Założenie konta na GitHub
- Podstawowa znajomość technologii chmurowych nie jest obowiązkowa, ale przydatna
Terminy i definicje
System Rozproszony
System rozproszony to zbiór niezależnych komputerów lub urządzeń, które współpracują ze sobą poprzez sieć komputerową, tworząc logiczną całość. Każdy węzeł w systemie może działać niezależnie, ale wszystkie razem realizują wspólne cele.
Spark
Apache Spark to potężne, masowo skalowalne środowisko do przetwarzania danych, które umożliwia efektywne przetwarzanie dużych zbiorów danych w pamięci oraz na dysku. Jest podstawowym komponentem platformy Databricks.
Databricks
Databricks to platforma do zarządzania danymi, która łączy zalety systemów data lake i data warehouse. Wykorzystuje Apache Spark jako silnik przetwarzania i zapewnia scentralizowane środowisko do analizy danych, uczenia maszynowego i biznesowych zastosowań analitycznych.
Data Lake (jezioro danych)
Data Lake to centralne repozytorium danych przechowujące duże ilości danych w ich pierwotnej, surowej formie. W przeciwieństwie do tradycyjnych hurtowni danych, które wymagają uprzedniej strukturyzacji danych, data lake może przechowywać dane w dowolnym formacie, w tym: strukturyzowane, półstrukturyzowane i niestrukturyzowane.
Prowadzący szkolenie:
Dawid Grześków
Specjalista IT z pięcioletnim doświadczeniem w środowisku danowym. W swojej karierze przeszedłem przez budowanie narzędzi wewnętrznych, analitykę oraz tworzenie systemów raportowych. Aktualnie pracuję jako Inżynier Danych, gdzie Spark i Databricks stanowią moje główne narzędzia pracy.
Na co dzień pracuję z technologiami chmurowymi na platformie Azure. Programuję w Pythonie, SQL oraz Sparku. Tworzę modele, hurtownie oraz jeziora danych. Integruję rozwiązania DevOps z procesami biznesowymi. Tworzę zaplecza całych platform i rozwijam procesy integracyjne.
Projekty w których brałem udział to m.in.:
- Integracja przepływów danych wspierających mi.n. SAPa, procesy korporacyjne
- Budowanie jezior danych w celu scentralizowania zasobów przedsiębiorstwa
- Budowanie modeli analitycznych, które dotychczas były niemożliwe do zrealizowania bez Sparka.
- Wdrażanie rozwiązań DevOps/DataOps
Posiadam doświadczenie pracy w międzynarodowych firmach, gdzie wspierałem zespoły w przyswajaniu wiedzy procesowej oraz narzędziowej. Jako praktyk, wychodzę z założenia, że tylko praktyczne szkolenia dają satysfakcjonujące efekty.
Z takim założeniem stworzyłem również poniższy kurs.


To szkolenie przeprowadzi Cię przez najważniejsze obszary pracy z dużymi modelami językowymi (LLM) takimi jak GPT. Będziesz w stanie komunikować się z modelami od OpenAI nie tylko przez interfejs ChatGPT. Zamiast tego, nauczysz się tworzyć własne rozwiązania oparte o technologie LLM, które w obecnym świecie stają się codziennym narzędziem wielu programistów.
Oprócz podstawowych sposobów komunikacji z modelami GPT przez API, dowiesz się także jak wykorzystywać je do praktycznych zadań. Omówimy różne use case"y, które będą dotyczyć m.in. klasyfikacji tekstu, pracy z różnymi formatami danych czy też automatyzacji pisania kodu. Na koniec, zobaczysz w jaki sposób stworzyć interfejs do komunikacji z Twoim rozwiązaniem wykorzystujący własne API zbudowane we frameworku FastAPI.
Prowadzący szkolenie:
Patryk Palej
Programista Pythona od 2018 roku z backgroundem w matematycznym modelowaniu procesów fizycznych. Specjalizuje się w obszarach związanych z pozyskiwaniem, przetwarzaniem i analizą danych. Jako data scientist pracował w projektach dla branż takich jak telekomunikacja, media czy finanse. Doświadczony szkoleniowiec, który lubi i potrafi przekazywać wiedzę. W wolnym czasie podróżuje lub pracuje nad nowymi szkoleniami.



Szkolenie dedykowane dla programistów Java, którzy chcieliby się nauczyć tworzyć skalowalne mikroserwisy gotowe do działania w chmurze. Główny nacisk jest położony na dobre praktyki tworzenia aplikacji Spring Bootowej.
Oprócz nauki samego Spring Boota, ze szkolenia dowiesz się jak poprawnie uruchomić aplikację w kontenerze Dockerowym, jak utworzyć lokalne środowisko developerskie oraz poznasz podstawy Kubernetesa z punktu widzenia developera.
Jeżeli znasz już Spring Boota, to szkolenie naprowadzi Cię na maksymalne wykorzystanie wszystkich jego możliwości. Nauczysz się, jak sprawnie i szybko tworzyć aplikacje przy użyciu gotowych bibliotek, które odciążą Cie od nadmiernej ręcznej konfiguracji. Dzięki czemu, Twoja aplikacja będzie łatwa w późniejszym utrzymaniu.
Są to umiejętności bardzo porządane na rynku pracy. Wielu developerów piszę aplikacje Spring Bootowe, ale większość z nich nie potrafi w pełni wykorzystać jego potencjału - tutaj się tego nauczysz.
Prowadzący szkolenie:
Marcin Dzierżak
Z wykształcenia mgr informatyki, absolwent Politechniki Gdańskiej. Obecnie jako konsultant realizuje rozwiązania dla klientów. Doświadczenie zdobywał przez 20 lat pracując dla klientów software house, korporacyjnych oraz administracji europejskiej. Od początku kariery związany i wierny językowi programowania Java. Zdobytą wiedzą praktyczną dzieli się na szkoleniach technicznych. W profilu "fullstack" skupia się na technologiach bazujących na językach programowania Java i JavaScript. Realizowane szkolenia mają charakter praktyczny i warsztatowy.

O szkoleniu w skrócie
Niniejsze szkolenie to przegląd kwestii związanych z bezpieczeństwem systemów
teleinformatycznych.
Poruszone podczas jego trwania kwestie wprowadzą uczestnika
w podstawowe pojęcia związane z bezpieczeństwem informacji i zarządzania nim. W ramach
szkolenia pokazane zostanie jak wprowadzić zarządzanie bezpieczeństwem informacji do ładu
korporacyjnego i dlaczego jest to niezbędne.
Omówione zostaną kwestie związane z identyfikacją
zasobów w organizacji, ich klasyfikacją oraz doborze środków ochronnych jak również temat
użytkownika w systemie, jego bezpieczeństwa, identyfikacji, uwierzytelniania i autoryzacji.
Poruszone zostanie znaczenie kontroli, monitorowania i testowania dla zapewnienia ochrony jak
również znaczenia uwzględnienia kwestii bezpieczeństwa w całym cyklu życia rozwiązania.
Omówione zostanie postępowanie w sytuacjach awaryjnych i tworzenie planów na takie sytuacje.
Szkolenie będzie prowadzone w formie wykładowo-warsztatowej. Poszczególne części zostaną
zaprezentowane i omówione, następnie przedstawione zostaną przypadki do analizy i rozwiązania,
po czym udzielone odpowiedzi zostaną wspólnie podsumowane i wyjaśnione.
Prowadzący szkolenie:
Artur Zięba-Kozarzewski
Z wykształcenia matematyk, absolwent Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, certyfikowany CISSP, ISSAP oraz audytor wiodący ISO27001. Z zawodu i zainteresowań specjalista ds. bezpieczeństwa systemów informatycznych.
Współtworzył i wdrażał rozwiązania zabezpieczające jedne z największych systemów ochrony informacji niejawnych w Polsce, m.in. Policyjną Sieć Transmisji Danych Niejawnych i systemy Straży Granicznej. Brał udział w projektach naukowo badawczych z zakresu bezpieczeństwa teleinformatycznego. Uczestniczył w międzynarodowych Ćwiczeniach NATO CWIX (Coalition Warrior Interoperability eXercise) oraz w konferencjach organizowanych przez Agencja NATO ds. Łączności i Informatyki (NCIA). Prelegent na konferencjach z zakresu Security, m.in The Hack Summit oraz Semafor.
Przewodził pracy zespołowi badawczo-rozwojowego projektującemu nowe rozwiązania do ochrony systemów IT/ICS, bierze udział w pracach nad opracowaniem inteligentnego systemy zarządzania energią elektryczną. Od wielu lat związany z firmą KRYPTON Polska. Sp. z o. o., polskim liderem certyfikowanych rozwiązań kryptograficznych, aktualnie na stanowisku Architekta Systemowego ds. cyberbezpieczeństwa.
Dzieli się swoją wiedzą prowadząc szkolenia z zakresu bezpieczeństwa przez firmę JSystems sp. z o. o. Członek stowarzyszeń ISSA Polska, (ISC)2 oraz (ISC)2 Poland Chapter. Aktywnie działa w celu poszerzania świadomości otocznia na zagrożenia związane z systemami informatycznymi i koniecznością ich odpowiedzialnego rozwoju

O szkoleniu w skrócie
Szkolenie z modelowania w UML2 na poziomie analitycznym, projektowym i architektonicznym.
Jeśli interesuje Cię tylko jeden z tych wymiarów, to w naszej ofercie znajdziesz dedykowane szkolenia z modelowania dla analityków, dla projektantów oraz zestaw szkoleń z architektury.
Jeśli natomiast twoje obowiązki łączą w sobie konieczność modelowania na poziomie zarówno analitycznym, projektowym, jak i architektonicznym, to tu zapoznasz się z wszystkimi wymiarami.
Oznacza to mniejszy nacisk na każdy z poziomów modelowania, a jednocześnie zamodelowanie ich wszystkich podczas jednego szkolenia.
Dla kogo?
Szkolenie adresowane jest do osób, które chciałyby poznać UML2 w szerokim spektrum jego zastosowań (analiza, projektowanie, architektura). Czy to ze względu na konieczność tworzenia wspomnianych modeli, czy ich weryfikacji jako kadra zarządzająca lub testerzy.Prowadzący szkolenie:
Michał Podbielski
Programista Java od 2004 roku, doświadczony w wielkich międzynarodowych projektach. Architekt oprogramowania i konsultant w zakresie architektury oprogramowania,
UML i BPMN rozwiązujący problemy klientów w złożonych i zróżnicowanych projektach. Przeprowadził w sumie ponad 390 szkoleń ze świetnymi wynikami w ankietach.
Prowadzi szkolenia z języka Java, architektury oprogramowania, UML i BPMN.