Въведи своя e-mail и парола за вход, ако вече имаш създаден профил в DEV.BG/Jobs

Забравена парола?

Създай своя профил в DEV.BG/Jobs

За да потвърдите, че не сте робот, моля отговорете на въпроса, като попълните празното поле:

73 + 5 =

Забравена парола

Въведи своя e-mail и ще ти изпратим твоята парола

Една от всички 15 обяви за Big Data в София

Виж всички

Senior BigData Engineer, Financial Software Solutions

DataArt | София

Only in


Тази обява е публикувана само в DEV.BG Jobs: Преглеждаме значимите български сайтове за обяви за работа (с поне 400 IT обяви за работа). Тази обява не е публикувана в нито един от тях.
11 юни
Обявата е публикувана в следните минибордове
  • Sofia, Bulgaria
  • Съобщи за проблем с обявата

Съобщи за проблем с обявата


    Какво не е наред с обявата?*
    Моля опиши ни, къде е проблемът:
    За да потвърдите, че не сте робот, моля отговорете на въпроса, като попълните празното поле:

    About the vacancy

    Our client is a New York City-based FinTech startup that is building a trading and risk software platform for the investment banking industry to sell as a service.

    We’re looking for a BigData engineer who will work on building new parts of scalable DataLake and expand the existing ones based on cutting edge technologies (Spark, Hadoop, DataBrix). The DataLake is used by quantum analysts for ad hoc queries and by data scientists to build models for predicting investment opportunities. Data enters the DataLake using ETL ingestion pipelines implemented with Apached Airflow. The specialist will join a distributed team on DataArt’s side that consists of 30 people from Ukraine, Russia, Poland, and the US.

    Must have

    • Excellent knowledge of the general principles of Big Data
    • Experience with distributed systems
    • Excellent knowledge of Spark (Core, SQL, Streaming)
    • Excellent knowledge of Java, Scala, or Python
    • Experience with AWS or other cloud providers
    • Experience with BigData solutions
    • Good spoken English

    Would be a plus

    • Knowledge of Kafka
    • Knowledge of Apache Airflow
    • Infrastructure management (DevOps)
    • Knowledge of PySpark
    • Knowledge of Databricks
    • Experience with Kubernetes

    Learn more about our policy of equal opportunities in employment