Menu Zamknij

Data Engineer

Indywidualny mentoring 1:1 dla osób, które chcą budować infrastrukturę danych. Python + SQL + Cloud w jednej specjalizacji.

  • Indywidualnie wyznaczona roadmapa
  • Abonament miesięczny
  • Rozwijasz się tyle, ile potrzebujesz

Jak działa mentoring Data Engineer 1:1?

To nie backend development. To budowanie pipeline'ów ETL, platform Big Data i systemów streamingowych, które zasilają aplikacje i analizy biznesowe.

  • praca indywidualna 1:1 z mentorem
  • brak grup i nagrań
  • zakres dopasowany do Twojego poziomu i celu (ETL, Big Data, Cloud)
  • realne projekty: data pipelines, streaming platforms, cloud infrastructure
  • code review i rozmowa o architekturze danych

AI jest częścią mentoringu. Uczymy, jak używać go jako narzędzia, a nie zastępstwa myślenia.

Tech Stack

Data Engineer to najbardziej technologicznie zróżnicowana specjalizacja.
Nie musisz znać wszystkiego od razu - budujemy roadmapę
dopasowaną do Twojego doświadczenia i celu (ETL Engineer, Big Data Engineer, Cloud Platform Engineer).

Języki Programowania

Python do ETL, SQL do transformacji danych

Python

Primary language - ETL pipelines, Airflow DAGs, data processing

SQL

Zaawansowane transformacje danych, data modeling, optymalizacja

Big Data Tools

Przetwarzanie rozproszonych danych na dużą skalę - batch i streaming

Apache Spark

Distributed data processing - batch & streaming

Apache Kafka

Real-time data streaming, event-driven pipelines

Databricks

Managed Spark platform, collaborative notebooks

Cloud Platforms

Cloud-native data warehouses i managed services dla Big Data

GCP BigQuery

Serverless data warehouse, petabyte-scale analytics

Azure Synapse

Unified analytics platform, data warehousing

Orchestration & Tools

Automatyzacja pipeline'ów, DataOps i infrastruktura jako kod

Apache Airflow

Workflow orchestration, scheduling, monitoring

dbt

SQL transformations, data modeling, testing

Docker/Terraform

Containerization, infrastructure as code

Data Engineers budują infrastrukturę, nie aplikacje

Nie tworzysz UI dla użytkowników końcowych. Budujesz systemy, które zasilają dashboardy, ML models i decision-making.

SOURCES

PostgreSQL/MySQL
REST/GraphQL APIs
Kafka Streams
CSV/Parquet Files
Cloud Storage

PIPELINE PLATFORM

ETL Pipelines

Extract, Transform, Load - orchestrated by Airflow

Apache Spark

Distributed processing for large-scale data

Data Quality

Validation, testing, monitoring

DESTINATIONS

BigQuery/Snowflake
Data Lake (Cloud Storage)
Looker/Tableau
ML Models
Analytics APIs

Przykładowa roadmapa mentoringu

Każda roadmapa jest indywidualna i dopasowana do poziomu oraz celów ucznia.

Poniżej przykład realnego mentee i ścieżki, która pomogła mu wejść do IT po przerwie.

Jerzy

Mentee - bez doświadczenia komercyjnego

Poznał domenę Pythona (podstawy programowania, funkcje, klasy, moduły). Zna SQL na poziomie podstawowym (SELECT, JOIN, WHERE, GROUP BY). Umie używać pandas do analizy danych i numpy do obliczeń numerycznych. Brak doświadczenia komercyjnego. Nie pracował z Big Data (Spark, Kafka), cloud platforms (GCP), ani z orchestration (Airflow). Nie wie jak zbudować production-ready pipeline. Chce zostać Data Engineerem, ale nie wie od czego zacząć i jak przejść od teorii do praktyki.

1Etap 1

Python & SQL

Uzupełnienie luk w zaawansowanym Pythonie (comprehensions, generatory, context managers) oraz SQL (funkcje okienkowe, CTE, optymalizacja zapytań). Wprowadzenie do modelowania danych, normalizacji oraz podstaw data warehousing. Praktyka na mniejszych zbiorach danych i przygotowanie do większych wyzwań.

2Etap 2

ETL & Workflow Orchestration

Nauka Apache Airflow od podstaw: budowa DAGów, sensory, operatory oraz zależności między zadaniami. Wzorce projektowe dla pipeline’ów danych: idempotentność, ładowanie przyrostowe, backfilling. Obsługa błędów oraz mechanizmy retry. Kontrola jakości danych i monitoring. Pierwszy pipeline klasy produkcyjnej.

3Etap 3

Big Data & rozproszone przetwarzanie

Nauka Google Cloud Platform oraz usług zarządzanych: BigQuery, Dataproc, Cloud Storage. Infrastructure as Code (Terraform) oraz wykorzystanie Dockera w pipeline’ach danych. Automatyzacja CI/CD. Monitoring, alertowanie oraz data observability. Najlepsze praktyki wdrożeń produkcyjnych.

3Etap 4

Cloud Platforms & Infrastruktura

Nauka Google Cloud Platform oraz usług zarządzanych: BigQuery, Dataproc, Cloud Storage. Infrastructure as Code (Terraform) oraz Docker dla pipeline’ów danych. Automatyzacja CI/CD. Monitoring, alertowanie oraz data observability. Najlepsze praktyki wdrożeń produkcyjnych.

3Etap 5

Portfolio

Budowa 1–2 kompletnych platform danych end-to-end do portfolio: przetwarzanie wsadowe (Airflow + Spark + BigQuery) oraz streaming (Kafka + Spark Structured Streaming). Wykorzystanie dbt do transformacji SQL. Profesjonalna dokumentacja, czysty kod oraz workflow GitOps. Projekty gotowe do zaprezentowania rekruterom.

REZULTAT

Mentee zbudował 2 production-ready projekty (batch ETL platform + real-time streaming pipeline) i zdobył pierwszą pracę jako Data Engineer po 1.5 roku od rozpoczęcia mentoringu.

Dla kogo jest ta ścieżka

Praca nad przebranżowieniem

Dla osób, które chcą wejść do Data Engineering świadomie, bez obietnic szybkich efektów. Skupiamy się na solidnych fundamentach: Python, SQL, pipeline design i projektach pokazujących sposób myślenia.

Praca nad podniesieniem kwalifikacji

Dla Data/BI Analysts, ETL Developers lub Software Engineers, którzy chcą przejść na wyższy poziom: Airflow, Spark, cloud platforms. Pracujemy nad architekturą, distributed systems i rozmowami technicznymi.

Wybierz swoją ścieżkę

Junior

1200 PLN / mies.

Opanowanie bazy i najlepszych praktyk oprogramowania oraz inżynierii, aby móc efektywnie zagłębić się w obszar Data Engineeringu.

  • Około 36 h rozwoju indywidualnego w miesiącu
  • Praca indywidualna oraz z mentorem
  • Dogłębny rozwój z programowania w Pythonie podstawowym i zaawansowanym
  • Praca z GIT
  • Praca z wzorcami i dobrymi standardami projektowymi
  • Clean Code, SOLID, intensywna praktyka, mini-projekty
  • Code Review i nakierunkowanie na specjalizację
  • Rozwój portfolio
  • Testy jednostkowe
  • Przetwarzanie danych - Numpy & Pandas
  • Autorskie materiały szkoleniowe oraz zadania domowe do pobrania

Wybieram

Senior

1325 PLN / mies.

Ukończenie tej ścieżki dogłębnie przygotuje Cię pod pierwszą pracę jako Data Engineer.

  • Około 40 h rozwoju indywidualnego w miesiącu
  • Praca indywidualna i z mentorem
  • Wpis i zaświadczenie do CV o odbytym stażu zrealizowanym w ramach mentoringu
  • Budowanie ETL-ów, warehouse-ów i data lake-ów
  • SQL podstawowy i zaawansowany (SQL Server)
  • Orkiestracja przy użyciu Docker, Apache Airflow oraz Terraform
  • Praca z chmurą - Google Cloud (Functions, PubSub, Workflows, BigQuery, Composer, Dataproc)
  • Apache Spark i Databricks
  • Kafka, budowanie pipeline-ów danych i CI/CD
  • Personalizowany projekt do portfolio
  • Zaawansowany GIT
  • Pomoc w poszukiwaniu pracy
  • Architektura oprogramowania (SOLID, Design Patterns, DDD)
  • Tworzenie CV, symulacje rozmów kwalifikacyjnych
  • Personalizowany projekt portfolio z mentorem
  • Wsparcie w poszukiwaniu pracy
  • Autorskie materiały szkoleniowe oraz wiele zadań i wyzwań praktycznych

Wybieram

Rynek pracy Data Engineering - Fakty i liczby

Analiza rynku pracy Data Engineer w Polsce (dane: No Fluff Jobs, Bulldogjob, 2024-2025)

Jak mentoring adresuje te wyzwania?

  • Budujesz kompletne projekty w chmurze - pełne platformy danych, które działają od początku do końca. Batch, streaming, cloud - wszystko wdrożone i gotowe do pokazania. To dowód, że nie tylko znasz teorię.
  • Uczysz się krok po kroku: od Python i SQL, przez Airflow, Spark, aż do platform cloud i infrastruktury jako kod. Bez przeskoków - każdy element buduje na poprzednim.
  • Przygotowujemy Cię do rozmów rekrutacyjnych: optymalizacja SQL, projektowanie systemów danych, rozwiązywanie problemów w systemach rozproszonych. Plus mock interviews, żebyś wiedział czego się spodziewać.
  • Roadmapa szyta na miarę - w zależności od tego, w którą stronę chcesz iść: ETL Engineer (Airflow + dbt), Big Data Engineer (Spark + Kafka) czy Cloud Platform Engineer (GCP + Terraform). Nie uczysz wszystkiego - uczysz to, co Ci potrzebne.
  • Bez ściemy: to zajmuje 1.5-2 lata nawet dla dobrych kandydatów. Magicznych skrótów nie ma, ale z mentorem idziesz pewniejszą drogą i nie tracisz czasu na ślepe zaułki.

Wybierz swoją ścieżkę

Data Engineering to nie monolit - możesz specjalizować się w ETL, Big Data, Cloud lub Infrastructure

ETL/ELT Engineer

Budowa pipeline'ów danych - batch & streaming. Orchestration, SQL transformations i data quality.
KLUCZOWE TECHNOLOGIE
  • Python
  • Airflow
  • dbt
  • SQL
  • BigQuery/Snowflake
  • Docker
PRZYKŁADOWE FIRMY:
E-commerce, SaaS, fintech
Junior/Mid - dobry start do kariery

Big Data Engineer

Przetwarzanie rozproszonych danych na dużą skalę. Performance tuning i real-time streaming.
KLUCZOWE TECHNOLOGIE
  • Spark
  • Kafka
  • Databricks
  • Hadoop
  • HDFS
PRZYKŁADOWE FIRMY:
Tech giants, fintech, media streaming
Mid/Senior - 2+ lata doświadczenia

Cloud Data Platform Engineer

Cloud-native platformy danych. Managed services, serverless i cost optimization.
KLUCZOWE TECHNOLOGIE
  • GCP
  • BigQuery
  • Terraform
  • Kubernetes
  • Cloud Functions
PRZYKŁADOWE FIRMY:
Startups, migracje cloud, consulting
Mid/Senior - wymaga certyfikacji cloud

Data Infrastructure Engineer

Własność całej infrastruktury danych. DataOps, observability i platform engineering.
KLUCZOWE TECHNOLOGIE
  • Kubernetes
  • Terraform
  • Docker
  • Prometheus
  • GitOps
  • DataOps tools
PRZYKŁADOWE FIRMY:
MLOps teams, platform engineering
Senior - 3+ lata + DevOps skills

Projekty mentees Python

Python Backend portfolio to nie TODO listy. To production-ready API z autentykacją, obsługą baz danych, testami, CI/CD i dokumentacją. Zobacz przykłady projektów które pomagamy budować.

Soccer Scraper

Filip Baranowski

Aplikacja do scrapowania statystyk piłkarskich z różnych źródeł. Automatyczna agregacja danych, analiza form drużyn i predykcja wyników.

  • python
  • beautifulsoup
  • pandas
  • flask
  • postgresql

Images Sharer

Filip Baranowski

Platforma do udostępniania i zarządzania obrazami. Upload, kompresja, tagowanie i udostępnianie z kontrolą dostępu.

  • python
  • django
  • aws-s3
  • celery
  • redis

PyCheck - Task Manager

Mateusz Królikowski

System zarządzania zadaniami z Kanban board, notyfikacjami i integracją z kalendarzem. REST API + React frontend.

  • python
  • django
  • drf
  • docker
  • postgresql

PixelPerfect - Image Processing

Mateusz Królikowski

Narzędzie do przetwarzania obrazów w czasie rzeczywistym. Filtry, kompresja, konwersja formatów, batch processing.

  • python
  • opencv
  • pillow
  • fastapi
  • kubernetes

Zdobyliśmy Twoje serce?

Jesteś zainteresowany lub jeszcze się wahasz? Wyślij zgłoszenie i niezobowiązująco opracujemy dostosowaną do Ciebie ścieżkę nauki.

Zapytaj