Poszukujemy doświadczonego Programisty Big Data, który dołączy do naszego zespołu i będzie odpowiedzialny za rozwój oraz utrzymanie systemów przetwarzania danych w środowisku on-premises. Jeśli pasjonujesz się nowoczesnymi technologiami i chcesz pracować przy ambitnych projektach wykorzystujących Apache Airflow, Apache Flink, Kafka, Spark oraz języki Java, Scala lub Python, to jest to oferta dla Ciebie!
Twoje zadania:
- Tworzenie i rozwój pipeline’ów przetwarzania danych z wykorzystaniem Apache Airflow.
- Przetwarzanie danych w modelu streamingowym i batchowym przy użyciu Apache Flink i Apache Spark.
- Utrzymanie i optymalizacja systemów Big Data (Kafka, Airflow, Flink, Spark/Spark Streaming).
- Praca z bazami SQL, NoSQL oraz usługami komunikacyjnymi SOAP/REST.
- Monitorowanie i optymalizacja systemów przy pomocy narzędzi takich jak Grafana, Nagios, Dynatrace.
Nasze wymagania:
- Min. 3 lata doświadczenia w obszarze Big Data.
- Bardzo dobra znajomość Apache Airflow i Apache Flink.
- Umiejętność programowania w Java, Scala.
- Doświadczenie w pracy z Airflow, Flink, Kafka, Spark/Spark Streaming.
- Znajomość SOAP/REST oraz magazynów obiektowych klasy S3.
Co oferujemy?
- Rozwój – dostęp do platformy Udemy for Business, certyfikaty i szkolenia, współpraca z globalnymi liderami IT (Microsoft, AWS, Snowflake, Salesforce).
- Elastyczność – 100% zdalna współpraca.
- Benefity – prywatna opieka medyczna, karta Multisport, pakiet weterynaryjny, lekcje językowe, bony zakupowe.
- Międzynarodowe środowisko – praca z ekspertami z różnych krajów.
- Innowacyjne projekty – współpraca przy nowoczesnych, dynamicznych rozwiązaniach IT.
- Społeczność i integracja – wydarzenia firmowe, hackathony, inicjatywy CSR.
- Pakiet powitalny – miła niespodzianka na start!
Brzmi ciekawie? Aplikuj i dowiedz się więcej!