Data Engineer
Indywidualny mentoring 1:1 dla osób, które chcą budować infrastrukturę danych. Python + SQL + Cloud w jednej specjalizacji.
- Indywidualnie wyznaczona roadmapa
- Abonament miesięczny
- Rozwijasz się tyle, ile potrzebujesz
dbt run --models stagingJak działa mentoring Data Engineer 1:1?
To nie backend development. To budowanie pipeline'ów ETL, platform Big Data i systemów streamingowych, które zasilają aplikacje i analizy biznesowe.
- praca indywidualna 1:1 z mentorem
- brak grup i nagrań
- zakres dopasowany do Twojego poziomu i celu (ETL, Big Data, Cloud)
- realne projekty: data pipelines, streaming platforms, cloud infrastructure
- code review i rozmowa o architekturze danych
AI jest częścią mentoringu. Uczymy, jak używać go jako narzędzia, a nie zastępstwa myślenia.
Tech Stack
Data Engineer to najbardziej technologicznie zróżnicowana specjalizacja.
Nie musisz znać wszystkiego od razu - budujemy roadmapę
dopasowaną do Twojego doświadczenia i celu (ETL Engineer, Big Data Engineer, Cloud Platform Engineer).
Języki Programowania
Python do ETL, SQL do transformacji danych
Python
Primary language - ETL pipelines, Airflow DAGs, data processing
SQL
Zaawansowane transformacje danych, data modeling, optymalizacja
Big Data Tools
Przetwarzanie rozproszonych danych na dużą skalę - batch i streaming
Apache Spark
Distributed data processing - batch & streaming
Apache Kafka
Real-time data streaming, event-driven pipelines
Databricks
Managed Spark platform, collaborative notebooks
Cloud Platforms
Cloud-native data warehouses i managed services dla Big Data
GCP BigQuery
Serverless data warehouse, petabyte-scale analytics
Azure Synapse
Unified analytics platform, data warehousing
Orchestration & Tools
Automatyzacja pipeline'ów, DataOps i infrastruktura jako kod
Apache Airflow
Workflow orchestration, scheduling, monitoring
dbt
SQL transformations, data modeling, testing
Docker/Terraform
Containerization, infrastructure as code
Data Engineers budują infrastrukturę, nie aplikacje
Nie tworzysz UI dla użytkowników końcowych. Budujesz systemy, które zasilają dashboardy, ML models i decision-making.
SOURCES
PIPELINE PLATFORM
ETL Pipelines
Extract, Transform, Load - orchestrated by Airflow
Apache Spark
Distributed processing for large-scale data
Data Quality
Validation, testing, monitoring
DESTINATIONS
Przykładowa roadmapa mentoringu
Każda roadmapa jest indywidualna i dopasowana do poziomu oraz celów ucznia.
Poniżej przykład realnego mentee i ścieżki, która pomogła mu wejść do IT po przerwie.
Jerzy
Mentee - bez doświadczenia komercyjnego
Poznał domenę Pythona (podstawy programowania, funkcje, klasy, moduły). Zna SQL na poziomie podstawowym (SELECT, JOIN, WHERE, GROUP BY). Umie używać pandas do analizy danych i numpy do obliczeń numerycznych. Brak doświadczenia komercyjnego. Nie pracował z Big Data (Spark, Kafka), cloud platforms (GCP), ani z orchestration (Airflow). Nie wie jak zbudować production-ready pipeline. Chce zostać Data Engineerem, ale nie wie od czego zacząć i jak przejść od teorii do praktyki.
Etap 1Python & SQL
Uzupełnienie luk w zaawansowanym Pythonie (comprehensions, generatory, context managers) oraz SQL (funkcje okienkowe, CTE, optymalizacja zapytań). Wprowadzenie do modelowania danych, normalizacji oraz podstaw data warehousing. Praktyka na mniejszych zbiorach danych i przygotowanie do większych wyzwań.
Etap 2ETL & Workflow Orchestration
Nauka Apache Airflow od podstaw: budowa DAGów, sensory, operatory oraz zależności między zadaniami. Wzorce projektowe dla pipeline’ów danych: idempotentność, ładowanie przyrostowe, backfilling. Obsługa błędów oraz mechanizmy retry. Kontrola jakości danych i monitoring. Pierwszy pipeline klasy produkcyjnej.
Etap 3Big Data & rozproszone przetwarzanie
Nauka Google Cloud Platform oraz usług zarządzanych: BigQuery, Dataproc, Cloud Storage. Infrastructure as Code (Terraform) oraz wykorzystanie Dockera w pipeline’ach danych. Automatyzacja CI/CD. Monitoring, alertowanie oraz data observability. Najlepsze praktyki wdrożeń produkcyjnych.
Etap 4Cloud Platforms & Infrastruktura
Nauka Google Cloud Platform oraz usług zarządzanych: BigQuery, Dataproc, Cloud Storage. Infrastructure as Code (Terraform) oraz Docker dla pipeline’ów danych. Automatyzacja CI/CD. Monitoring, alertowanie oraz data observability. Najlepsze praktyki wdrożeń produkcyjnych.
Etap 5Portfolio
Budowa 1–2 kompletnych platform danych end-to-end do portfolio: przetwarzanie wsadowe (Airflow + Spark + BigQuery) oraz streaming (Kafka + Spark Structured Streaming). Wykorzystanie dbt do transformacji SQL. Profesjonalna dokumentacja, czysty kod oraz workflow GitOps. Projekty gotowe do zaprezentowania rekruterom.
REZULTAT
Mentee zbudował 2 production-ready projekty (batch ETL platform + real-time streaming pipeline) i zdobył pierwszą pracę jako Data Engineer po 1.5 roku od rozpoczęcia mentoringu.
Dla kogo jest ta ścieżka
Praca nad przebranżowieniem
Dla osób, które chcą wejść do Data Engineering świadomie, bez obietnic szybkich efektów. Skupiamy się na solidnych fundamentach: Python, SQL, pipeline design i projektach pokazujących sposób myślenia.
Praca nad podniesieniem kwalifikacji
Dla Data/BI Analysts, ETL Developers lub Software Engineers, którzy chcą przejść na wyższy poziom: Airflow, Spark, cloud platforms. Pracujemy nad architekturą, distributed systems i rozmowami technicznymi.
Wybierz swoją ścieżkę
Junior
1200 PLN / mies.
Opanowanie bazy i najlepszych praktyk oprogramowania oraz inżynierii, aby móc efektywnie zagłębić się w obszar Data Engineeringu.
- Około 36 h rozwoju indywidualnego w miesiącu
- Praca indywidualna oraz z mentorem
- Dogłębny rozwój z programowania w Pythonie podstawowym i zaawansowanym
- Praca z GIT
- Praca z wzorcami i dobrymi standardami projektowymi
- Clean Code, SOLID, intensywna praktyka, mini-projekty
- Code Review i nakierunkowanie na specjalizację
- Rozwój portfolio
- Testy jednostkowe
- Przetwarzanie danych - Numpy & Pandas
- Autorskie materiały szkoleniowe oraz zadania domowe do pobrania
Senior
1325 PLN / mies.
Ukończenie tej ścieżki dogłębnie przygotuje Cię pod pierwszą pracę jako Data Engineer.
- Około 40 h rozwoju indywidualnego w miesiącu
- Praca indywidualna i z mentorem
- Wpis i zaświadczenie do CV o odbytym stażu zrealizowanym w ramach mentoringu
- Budowanie ETL-ów, warehouse-ów i data lake-ów
- SQL podstawowy i zaawansowany (SQL Server)
- Orkiestracja przy użyciu Docker, Apache Airflow oraz Terraform
- Praca z chmurą - Google Cloud (Functions, PubSub, Workflows, BigQuery, Composer, Dataproc)
- Apache Spark i Databricks
- Kafka, budowanie pipeline-ów danych i CI/CD
- Personalizowany projekt do portfolio
- Zaawansowany GIT
- Pomoc w poszukiwaniu pracy
- Architektura oprogramowania (SOLID, Design Patterns, DDD)
- Tworzenie CV, symulacje rozmów kwalifikacyjnych
- Personalizowany projekt portfolio z mentorem
- Wsparcie w poszukiwaniu pracy
- Autorskie materiały szkoleniowe oraz wiele zadań i wyzwań praktycznych
Rynek pracy Data Engineering - Fakty i liczby
Analiza rynku pracy Data Engineer w Polsce (dane: No Fluff Jobs, Bulldogjob, 2024-2025)
20% ofert
Mało ofert Junior
Tylko 20% ofert dla Junior. Musisz się przebić unikalnymi umiejętnościami.
82% wymaga cloud
Cloud experience
Większość ofert wymaga cloud (AWS/GCP/Azure), ale trudno zdobyć doświadczenie bez pracy.
85% fail rate
Trudność rozmów
Rozmowy techniczne obejmują SQL optimization, Airflow DAGs, distributed systems.
1.5-2 lata
Czas poszukiwań
Z solidnym portfolio: 1.5-2 lata. Bez portfolio: 2-3+ lata.
Jak mentoring adresuje te wyzwania?
- Budujesz kompletne projekty w chmurze - pełne platformy danych, które działają od początku do końca. Batch, streaming, cloud - wszystko wdrożone i gotowe do pokazania. To dowód, że nie tylko znasz teorię.
- Uczysz się krok po kroku: od Python i SQL, przez Airflow, Spark, aż do platform cloud i infrastruktury jako kod. Bez przeskoków - każdy element buduje na poprzednim.
- Przygotowujemy Cię do rozmów rekrutacyjnych: optymalizacja SQL, projektowanie systemów danych, rozwiązywanie problemów w systemach rozproszonych. Plus mock interviews, żebyś wiedział czego się spodziewać.
- Roadmapa szyta na miarę - w zależności od tego, w którą stronę chcesz iść: ETL Engineer (Airflow + dbt), Big Data Engineer (Spark + Kafka) czy Cloud Platform Engineer (GCP + Terraform). Nie uczysz wszystkiego - uczysz to, co Ci potrzebne.
- Bez ściemy: to zajmuje 1.5-2 lata nawet dla dobrych kandydatów. Magicznych skrótów nie ma, ale z mentorem idziesz pewniejszą drogą i nie tracisz czasu na ślepe zaułki.
Wybierz swoją ścieżkę
Data Engineering to nie monolit - możesz specjalizować się w ETL, Big Data, Cloud lub Infrastructure
ETL/ELT Engineer
Budowa pipeline'ów danych - batch & streaming. Orchestration, SQL transformations i data quality.KLUCZOWE TECHNOLOGIE
- Python
- Airflow
- dbt
- SQL
- BigQuery/Snowflake
- Docker
PRZYKŁADOWE FIRMY:
E-commerce, SaaS, fintechJunior/Mid - dobry start do kariery
Big Data Engineer
Przetwarzanie rozproszonych danych na dużą skalę. Performance tuning i real-time streaming.KLUCZOWE TECHNOLOGIE
- Spark
- Kafka
- Databricks
- Hadoop
- HDFS
PRZYKŁADOWE FIRMY:
Tech giants, fintech, media streamingMid/Senior - 2+ lata doświadczenia
Cloud Data Platform Engineer
Cloud-native platformy danych. Managed services, serverless i cost optimization.KLUCZOWE TECHNOLOGIE
- GCP
- BigQuery
- Terraform
- Kubernetes
- Cloud Functions
PRZYKŁADOWE FIRMY:
Startups, migracje cloud, consultingMid/Senior - wymaga certyfikacji cloud
Data Infrastructure Engineer
Własność całej infrastruktury danych. DataOps, observability i platform engineering.KLUCZOWE TECHNOLOGIE
- Kubernetes
- Terraform
- Docker
- Prometheus
- GitOps
- DataOps tools
PRZYKŁADOWE FIRMY:
MLOps teams, platform engineeringSenior - 3+ lata + DevOps skills
Projekty mentees Python
Python Backend portfolio to nie TODO listy. To production-ready API z autentykacją, obsługą baz danych, testami, CI/CD i dokumentacją. Zobacz przykłady projektów które pomagamy budować.
Soccer Scraper
Filip Baranowski
Aplikacja do scrapowania statystyk piłkarskich z różnych źródeł. Automatyczna agregacja danych, analiza form drużyn i predykcja wyników.
- python
- beautifulsoup
- pandas
- flask
- postgresql
Images Sharer
Filip Baranowski
Platforma do udostępniania i zarządzania obrazami. Upload, kompresja, tagowanie i udostępnianie z kontrolą dostępu.
- python
- django
- aws-s3
- celery
- redis
PyCheck - Task Manager
Mateusz Królikowski
System zarządzania zadaniami z Kanban board, notyfikacjami i integracją z kalendarzem. REST API + React frontend.
- python
- django
- drf
- docker
- postgresql
PixelPerfect - Image Processing
Mateusz Królikowski
Narzędzie do przetwarzania obrazów w czasie rzeczywistym. Filtry, kompresja, konwersja formatów, batch processing.
- python
- opencv
- pillow
- fastapi
- kubernetes
Zdobyliśmy Twoje serce?
Jesteś zainteresowany lub jeszcze się wahasz? Wyślij zgłoszenie i niezobowiązująco opracujemy dostosowaną do Ciebie ścieżkę nauki.